identifier
stringlengths 14
257
| collection
stringclasses 5
values | open_type
stringclasses 1
value | license
stringclasses 4
values | date
float64 1.9k
2.02k
⌀ | title
stringlengths 1
975
⌀ | creator
stringclasses 774
values | language
stringclasses 1
value | language_type
stringclasses 1
value | word_count
int64 2
312k
| token_count
int64 10
553k
| text
stringlengths 23
2.08M
| __index_level_0__
int64 0
57.3k
|
|---|---|---|---|---|---|---|---|---|---|---|---|---|
58a9bb748f2f4316cf5f7d76e37d6997_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,013
|
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien: Composante 3 Action 1: développement de projets de démonstration
|
None
|
French
|
Spoken
| 8,022
| 14,300
|
16 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
Tableau 13 : couverture du sol dans les APP (2011)
Tableau 15 : surface maximale disponible pour
l’exploitation
Couverture du sol dans les APP
Surface (ha)
Déboisements
6 906
Surface de forêt existante
387 691
Forêt
42 893
Surface de forêt dans APP
42 893
Hydrographie
713
Surface de forêt exploitable
344 798
Non forêt
2 752
Surface de déboisement projetée
29 688
Sans donnéss
34
315 111
Total
53 298
Surface maximale disponible pour
l'exploitation
Tableau 14 : calcul de la surface légalement disponible
pour conversion
% de réserve légale
80%
Surface de forêt
387 691
Surface déboisée
55 996
Surface de forét initiale
443 687
Surface forestiére initiale APP
49 799
Surface forestiére initiale hors APP
393 888
Surface totale convertible
78 778
Surface déjá convertie dans les APP
6 906
Surface déjá convertie hors APP
49 090
Surface disponible pour conversion
29 688
Surface maximale pour la dégradation
planifiée
On doit être en mesure de justifier la surface de forêt
se trouvant sous la menace directe d’exploitation
forestière, à travers la démonstration des
critères suivants :
•• L’exploitation forestière est conforme à la loi:
•• La zone est propice au développement des causes
directes de l’exploitation forestière : l’accès
aux marchés, les sols, la topographie, le climat
permettent l’exploitation.
La surface ainsi définie ne peut excéder le maximum
légal, à moins qu’il puisse être démontré que la loi
n’est habituellement pas appliquée.
Application de la contrainte légale
On doit exclure la surface forestière des APP, où
l’exploitation forestière n’est pas autorisée, comme
pour la déforestation planifiée. Une surface de
344 798 ha est ainsi légalement exploitable (cf.
Tableau 15). Cependant, d’après le scénario de
référence retenu, une surface de 29 688 ha sera
déboisée, ne laissant plus que 315 111 ha disponibles
pour l’exploitation forestière.
Application des contraintes technico économiques
L’exclusion des APP exclut de fait les surfaces
impropres à l’exploitation forestière en raison de
critères topographiques et/ou hydrographiques.
La répartition dans l’espace des plans d’aménagement
autorisés par la SEMA est relativement homogène,
laissant penser que des critères d’accès ne sont pas
une limite à l’exploitation.
Par contre, l’état de préservation des forêts, et en
particulier la richesse en arbres exploitables d’essences
commercialement intéressantes pourrait limiter la
surface totale exploitable. Cependant, même en
faisant l’hypothèse que 50% des surfaces légalement
exploitables présenteraient une viabilité commerciale
pour l’exploitation, soit 155 755 ha, cela représente
plus de 28 ans d’exploitation au rythme moyen de
5 465 ha adopté comme taux d’activité.
On peut donc considérer que la contrainte technicoéconomique n’est pas limitante.
Projection des émissions du scénario de référence
Le Tableau 16 ci-dessous présente les résultats
obtenus pour chaque volet, déforestation et
dégradation, en appliquant les données d’activité
(surfaces en ha) aux facteurs d’émissions (tCO2e/
ha). Le stockage dans les produits bois est par ailleurs
estimé et décompté pour le volet déforestation. Pour
le volet dégradation, le facteur d’émission proposé
(issu des travaux de la section sur le scénario REDD)
inclut déjà un décompte du stockage dans les
produits bois.
Au bout de la période de 25 ans, le cumul des
émissions du scénario de référence est de 24,035
(est -ce une virgule ???) millions de tCO2e, dont 78%
en raison de la déforestation et 22% en raison de la
dégradation.
Surface de forét (ha) 387 691 384 434 381 177 377 920 374 663 371 406 368 148 364 891 361 634 358 377 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 358 003 Année 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 Surface déboisée/ an (ha) 374 3 257 3 257 3 257 3 257 3 257 3 257 3 257 3 257 3 257 Surface déboisée cumulée (ha) 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 688 29 314 26 057 22 800 19 543 16 286 13 028 9 771 6 514 3 257 Facteur d'émissions de la déforestation (tCO2e/ha) 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 631 - Emissions annuelles (tCO2e) 235 705 2 054 144 2 054 144 2 054 144 2 054 144 2 054 144 2 054 144 2 054 144 2 054 144 2 054 144 Stocks cumulés dans les produits bois (tCO2e) 13 468 22 048 32 713 45 464 60 299 77 220 96 226 115 232 134 238 153 244 172 249 191 255 210 261 229 267 248 273 267 279 281 500 258 563 233 540 206 433 177 240 145 963 112 600 77 152 39 618 8 070 615 6 049 833 4 031 137 2 014 526 Emissions cumuleess (tCO2e) 18 709 536 18 700 956 18 690 291 18 677 541 18 662 705 18 645 784 18 626 779 18 607 773 18 588 767 18 565 761 18 550 755 18 531 749 18 512 743 18 493 737 18 474 731 18 455 725 18 205 800 16 174 593 14 145 470 12 118 433 10 093 482 - Surface dégradée/ an (ha) 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 5 465 Surface dêgradée cumulée (ha) 136 627 131 162 125 697 120 232 114 766 109 301 103 836 98 371 92 906 87 441 81 976 76 511 71 046 65 581 60 116 54 651 49 186 43 721 38 255 32 790 27 325 21 860 16 395 10 930 5 465 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 Facteur d'emissions de la dégradation (tCO2e/ha) - 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 213 010 - Scénario de référence de dégradation planifée Emissions annuelles (tCO2e) Scénario de référence de déforestation planifée 5 325 255 5 112 245 4 899 235 4 686 224 4 473 214 4 260 204 4 047 194 3 834 184 3 621 173 3 408 163 3 195 153 2 982 143 2 769 133 2 556 122 2 343 112 2 130 102 1 917 092 1 704 082 1 491 071 1 278 061 1 065 051 852 041 639 031 426 020 213 010 Emissions cumuléess (tCO2e) Tableau 16 : émissions du scénario de référence - Total des Emissions cumuléess (tCO2e) 24 034 791 23 813 201 23 589 526 23 363 765 23 135 919 22 905 988 22 673 972 22 441 956 22 209 940 21 977 924 21 745 908 21 513 892 21 281 876 21 049 860 20 817 844 20 585 827 20 122 892 17 878 674 15 636 542 13 396 495 11 158 533 8 922 656 6 688 864 4 457 157 2 227 536 Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 17 18 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi 4.2 Evaluation du scénario REDD On présente ici une synthèse du protocole et des résultats obtenus. Le scénario REDD se compose de deux volets :
•• Le placement sous aménagement forestier durable
du massif forestier privé de la Municipalité de
Cotriguaçu ;
•• La mise en valeur durable des terrains déjà
déboisés via des bonnes pratiques d’élevage.
Paramètres à prendre en compte
En matière méthodologique, il convient de prendre
en compte :
•• Les émissions de GES liées à l’exploitation
forestière sous aménagement durable, qui font
l’objet de cette section ;
•• Les émissions de GES liées à l’élevage. Nous
les ignorons dans ce cas de façon conservatrice,
dans la mesure où le programme conduira à une
réduction des surfaces dédiées à l’élevage et du
nombre de têtes de bétail.
Les principales activités émettrices
Les flux entre les compartiments de carbone liés
à l’exploitation forestière sont représentés dans la
Figure 7 ci-dessous.
Détail des paramètres clefs
Les différents paramètres clefs que l’on devra mesurer à
partir des mesures terrain ou bien de la littérature sont :
•• Les stocks de carbone des forêts avant
exploitation
Il est nécessaire d’estimer les stocks de carbone
des forêts avant exploitation de façon à pouvoir
estimer les émissions de carbone liées à la
disparition du couvert forestier sur l’emprise
spatiale des infrastructures d’exploitation et des
trouées d’abattage.
Pour l’application du protocole sur les cas pilotes,
nous avons utilisé les données collectées sur
le terrain ainsi que les données de littérature
disponibles. Cependant, on pourra également
utiliser les placettes permanentes de surveillance
de la biomasse aérienne que les propriétaires
4.2.1 Emissions de GES liées à l’exploitation
forestière sous aménagement durable
Ce volet a fait l’objet d’un travail spécifique
d’élaboration d’un protocole de mesure et de suivi.
Ce protocole a été développé sur le terrain en
l’appliquant au cas de deux assiettes de coupe en
cours d’exploitation dans des propriétés forestières
privées de Cotriguaçu. Ces travaux ont fait l’objet
d’un appui méthodologique de Lilian Blanc, expert
du CIRAD, dans le cadre d’une mission sur le terrain
réalisée en juin 2012 (cf. rapport en annexe).
Biomasse
racinaire
Bois mort
Taux de décomposition
du bois mort
DW
BGB
Bois mort
Rémanents
Taux de décomposition
du bois mort
DW
AGB arbres abattus –
biomasse exploitée
Biomasse
ligneuse
aérienne
AGB
Volumes
exploités
Déchets de
scierie
Taux de
transformation
Produits
Bois
HWP
Facteur de dommage
résiduel
Dommages
collatéraux
Bois mort
DW
Émission
de CO2
Durée de vie des
produit bois
Taux de décomposition
du bois mort
Figure 7 : flux entre les compartiments de carbone liés à l’exploitation forestière
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 19
forestiers sont tenus de mettre en place dans le
cadre du plan d’aménagement, en les complétant
pour les petits diamètres et en s’assurant de
respecter le niveau de fiabilité demandé.
•• L’emprise spatiale des infrastructures
d’exploitation
L’emprise spatiale de la piste principale, des pistes
secondaires et des aires de stockage se distingue
par l’absence de canopée et est déterminée par
télédétection. Pour les pistes secondaires, on fait
un premier examen grâce aux images satellites,
mais étant donnée le faible niveau d’ouverture,
on doit compléter ces informations avec des
mesures de terrain. Un cheminement complet des
pistes secondaires est donc réalisé à l’aide d’un
GPS ainsi que la mesure de la largeur moyenne.
•• Les dégâts d’exploitations dans les trouées
d’abattage
Suite à l’abattage de l’arbre, une ouverture plus
ou moins importante, est faite dans la canopée.
On considère ici que cette zone est mise à nu
même si elle ne se caractérise pas de la même
manière qu’une zone nette sans végétation
comme les pistes et les parcs de stockage. En
effet, les déchets laissés sur place se décomposent
assez rapidement et le signal sur l’image satellite
est alors le même que pour un sol nu. La mesure
sur le terrain n’étant pas envisageable, l’emprise
spatiale de la trouée est donc déterminée par
télédétection. On cherchera à obtenir une
image peu de temps après le débardage. Ainsi la
végétation n’a pas le temps de se régénérer et la
vision des dégâts créés pendant le débardage est
optimisée (traîne des grumes, passage des engins).
•• Les dommages collatéraux
Les zones à proximité immédiate des
infrastructures d’exploitation et des trouées
d’abattage subissent des pertes de biomasse dues
aux effets collatéraux du passage des engins et de
l’abattage. Il convient d’évaluer la superficie de
ces zones tampons affectées ainsi que la perte de
biomasse correspondante. Lors de l’étude réalisée
sur la zone de Cotriguaçu, on a donc mesuré
les arbres vivants sur pied ou au sol, intacts ou
blessés avec pour chacun un code spécifique
selon l’intensité des blessures. Les résultats des
mesures réalisées au sein des placettes temporaires
ont été analysés afin d’obtenir la limite en mètre
linéaire et le pourcentage moyen de perte de
biomasse dans les zones tampons. Ces résultats
peuvent être directement repris pour des modes
d’exploitation similaires ou être estimés à partir
de mesures de terrain en suivant la même
méthodologie.
•• Le pourcentage de rémanents laissé sur place
après l’abattage des arbres
Lors du découpage des grumes, on sépare la
partie commerciale des bois grossiers (LWB) et
des débris ligneux fin (FWB) pour produire des
billes marchandes destinées à la transformation.
Le carbone de ces éléments se décompose ou est
transféré rapidement dans le bois mort pour les
parties les plus fines.
Le pourcentage des rémanents laissés sur
site après abattage des arbres se déduit en
soustrayant le volume de grumes extraites de la
biomasse totale.
•• Les taux de décomposition du bois mort issu de
l’exploitation
La biomasse morte du fait des dégâts directs
et indirects dus à l’exploitation s’ajoute au
compartiment bois mort. On détermine le taux
auquel le bois mort se décompose dans la litière.
Deux taux différents sont appliqués en fonction
de la taille des débris. Une fois décomposé dans
la litière, on considère que le carbone est émis
en totalité.
•• Le volume exploité
Le volume total des grumes extraites est
déterminé d’après le plan de suivi de la récolte
ou sur la base des autorisations de circulation
de grumes délivrées par l’administration à
l’opérateur.
•• Le % de transformation et les types de
produits bois
On cherche ici à connaître le pourcentage de
la grume arrivant en scierie qui sera réellement
valorisée en produits bois. Il est généralement
de l’ordre de 50 à 60 %. Le reste constitue les
résidus et les purges qui sont considérés comme
des émissions directes.
D’après la littérature ou les données obtenues
auprès des scieries de la zone, l’opérateur doit
déterminer quel est le taux de transformation des
produits bois dans les scieries.
•• La durée de vie des produits bois
On doit estimer pour chaque type de produits
bois la durée de vie et le taux d’oxydation du
carbone dans l’atmosphère afin de pouvoir
estimer les émissions depuis ce compartiment.
•• et la régénération après exploitation sur assiettes
de coupe
Les pertes de carbone ont lieu lors de
l’exploitation et immédiatement après. La
séquestration de carbone post exploitation
s’étalera au contraire sur une plus longue période
(plusieurs décennies) et dépendra de la vitesse
de régénération ainsi que du type d’espèce. En
20 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
l’absence de données locales disponibles, on
se base sur les données de la littérature pour
déterminer la quantité de carbone stockée dans
les tiges en croissance et les nouvelles tiges.
Les activités émettrices qu’il est important de
mesurer pour chaque compartiment sont résumées
dans le Tableau 17 ci-dessous.
Plan de mesures
Pour réaliser le plan de mesures, on doit suivre les
étapes suivantes :
•• Stratifier la zone cible;
•• Choisir les compartiments de carbone ;
•• Déterminer le type, le nombre, la taille et la
forme des placettes ;
•• Déterminer la fréquence des mesures.
Stratification de la zone cible
Il s’agit de la zone boisée du programme
faisant l’objet d’une exploitation forestière sous
aménagement durable et qui est réellement exploitée.
On exclut donc toutes les zones boisées qui ne
font pas partie de la surface exploitable du fait
d’un statut légal de protection (APP) ou d’autres
facteurs (pauvreté en essences exploitables, difficultés
d’accès,…). Elle doit être stratifiée afin de définir :
•• D’une part des strates homogènes en matière de
stocks de carbone, reflétant des différences en
termes de topographie, d’hydrographie, d’espèces
forestières dominantes.
•• D’autre part des strates homogènes en matière
d’impacts de l’exploitation forestière : pistes
principales, pistes secondaires, aires de stockage
des grumes, trouées d’abattage, zones tampons
subissant les dommages collatéraux des
infrastructures d’exploitation et des trouées
d’abattage.
Choix des compartiments de carbone
Le choix des compartiments est soumis aux exigences
des lignes directrices AFOLU du VCS et suit
les critères des méthodologies VCS VM0010 et
VM0011. Les compartiments qu’il est nécessaire
d’étudier afin d’obtenir la valeur la plus précise
Tableau 17 : Résumé des activités émettrices de l’exploitation forestière et du mode d’acquisition des données
correspondantes
PARAMETRES
DONNEES
MODES D’ACQUISiTION
Stocks de carbone des forêts
avant exploitation
H, DHP, D, équation allométrique
Mesures de terrain et/ou littérature
Emprise spatiale des
infrastructures d’exploitation
Superficie pistes principales, pistes
secondaires et parcs à grumes.
Ouverture de la canopée = disparition
totale ou partielle de la végétation
Télédétection + Tracé des pistes en
routine après exploitation (GPS)
+ mesure de largeur des pistes
secondaires
Dégâts d’exploitation
Superficie des trouées d’abattage
Télédétection
Dommage collatéraux
arbres exploités, arbres morts ou arbres Mesures de terrain
blessés avec pour chacun un code
spécifique selon l’intensité des blessures
Pourcentage de rémanents laissé Biomasse totale - Biomasse grume
sur site après abattage des arbres
Calcul et équation allométrique d’après
les données du volume exploité et de
la biomasse aérienne initiale
Volumes exploités
Volume de grumes réellement sorties
Autorisations de circulation de grumes
attribuées par l’administration
Pourcentage de transformation
et types de produits bois
Taux de transformation
Types de produits bois
Littérature + site IPT
Régénération après exploitation
sur assiette de coupe
Accroissement et recrutement des
nouvelles tiges
Littérature et mesures de placettes
permanentes
Taux de décomposition du bois
mort issu de l’exploitation
% de biomasse ligneuse fine et
biomasse ligneuse grossière
Taux de décomposition
Littérature
Durée de vie des produits bois
Taux de décomposition par type de
produit bois
Littérature
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 21
Trouée d’abbattage (E)
Piste principale (A)
Piste secondaire (B)
Aire de stockage des grumes (C)
Limite de la parcelle
Route forestiére
Figure 8 : stratification des forêts exploitées dans le scénario de projet
Tableau 18 : Choix des compartiments pour l’estimation des émissions de carbone dues à l’exploitation forestière
Compartiments
Statut
Justification
AGB l
Biomasse aérienne ligneuse Inclus
Toujours significatif
DW
Bois mort
Inclus
Obligatoire dans les outils VCS pour les problématiques AFOLU
HWP
Produits Bois récoltés
Inclus
Significatif dans les deux cas mais on ne connaît pas son évolution
car il dépend du scénario de référence choisi
BGB
Biomasse racinaire
Inclus
Augmentation dans scénario projet
AGB nl Biomasse aérienne non
ligneuse
Exclu sauf Conservateur et peu significatif, seuls les palmiers sont
palmier
comptabilisés avec l’AGB car présence très importante sur la
zone d’étude
L
Litière
Exclu
Non significatif
S
Carbone organique du sol
Exclu
Conservateur
et conservatrice des émissions de carbone dues à
l’exploitation forestière sous aménagement durable
sont définies dans le Tableau 18 ci-dessous.
Dans le cas d’une exploitation commerciale, la
majorité du carbone se trouvant dans la biomasse
aérienne ligneuse, le bois mort et les produits bois
récoltés, ces compartiments sont considérés comme
hautement significatifs pour l’étude des stocks
de carbone.
•• AGB : la biomasse aérienne des arbres est le seul
compartiment dont l’évaluation est obligatoire
d’après le standard VCS puisqu’il constitue la
majorité des stocks totaux de biomasse des forêts
tropicales. Au sein de la biomasse ligneuse,
seuls les arbres et les palmiers sont considérés.
Les lianes sont peu significatives en termes de
biomasse.
•• DW : le bois mort est un élément significatif
puisque les dégâts d’exploitation génèrent une
grande quantité de bois mort.
•• HWP : les produits ligneux récoltés doivent
être inclus si l’extraction du bois est associée à
une augmentation du stock de carbone dans
les produits du bois à long terme dans le cas du
scénario de référence par rapport au scénario
de projet.
•• BGB : l’estimation de la biomasse souterraine
des arbres est recommandée, ce compartiment
représentant habituellement entre 15% et 30%
de la biomasse aérienne. Donc même si il est
conservatif de ne pas mesurer ce compartiment, il
est jugé utile de l’évaluer dans le cadre du projet,
en vue de générer plus d’unités de réductions des
émissions.
•• AGB nl : Il est jugé conservateur de ne pas
prendre en compte la biomasse aérienne non
ligneuse, qui en outre n’est pas considérée
comme significative en termes de séquestration
de carbone, en comparaison des quantités
importantes de carbone de la biomasse aérienne
ligneuse.
•• S et L : De la même manière il est jugé
conservateur de ne pas comptabiliser le
carbone organique du sol et de la litière car les
changements d’usages des sols qui font suite
à la déforestation (scénario de référence) sont
généralement des activités non synonymes de
22 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
séquestration (pâturage). De plus ils s’observent
sur des temps longs et représentent une réserve
de carbone onéreuse à mesurer. Pour minimiser le
coût des mesures, les compartiments sol et litière
sont donc exclus.
Obtention des données et outils de mesure
Les deux composantes étudiées sur le terrain sont
les effets de l’exploitation sur le peuplement d’arbres
donc les dégâts d’exploitation et l’ouverture de la
canopée qui correspond à l’emprise spatiale des
infrastructures d’exploitation. L’obtention des
données se fait principalement par des mesures sur
le terrain et la télédétection. Il est recommandé
d’utiliser des images satellites de haute résolution.
Pour appliquer ce protocole sur les cas d’étude, nous
avons utilisé en partenariat avec Astrium des images
Pléiades, un système d’observation optique composé
de deux satellites identiques, qui fournit des produits
de 50 cm de résolution.
Concernant les autres composantes, volumes
exploités, % de rémanents, % de transformation
et types de produits bois et la régénération après
exploitation sur assiettes de coupe, on se base sur la
littérature ou bien sur les données d’exploitation et
de transformation obtenues auprès des opérateurs
du secteur.
Caractéristiques des placettes de mesure
Deux sortes de placette de mesure sont nécessaires :
•• Placettes pour estimer les stocks de carbone des
forêts avant exploitation :
L’utilisation de placettes permanentes est
conseillée. En outre, la SEMA exige la mise
en place de placettes permanentes pour la
surveillance de la biomasse aérienne. Ces
placettes doivent être réalisées de manière
systématique tous les 200 ha dans les zones non
exploitées et être de forme rectangulaire, avec
une taille minimum de 2 500 m2. Les mesures
concernent tous les arbres de plus de 35 cm
de Dhp.
Les coordonnées de chaque placette sont enregistrées
à l’aide d’un GPS et une borne permanente est
positionnée au centre de la placette pour la localiser
(borne en béton par exemple). Cependant pour que
les données correspondent aux données utilisées
dans ce protocole, on devra compléter les mesures
en prenant en compte les arbres entre 10 et 35 cm
de Dhp.
Dans le cas où aucune parcelle permanente de suivi
ne serait présente sur la parcelle d’exploitation ou si
Tableau 19 : Intensité d’échantillonnage selon la taille
des parcelles
área a ser amostrada (ha)
Intensidade ideal (%)
Até 500
1,0
500–1500
0,8
Acima de 1500
0,6
les données ne permettent pas d’obtenir un résultat
fiable, c’est à dire un taux d’erreur faible, on devra
alors mettre en place des placettes témoins en zone
non exploitée. Celles-ci seront réalisées en suivant le
protocole de Gentry développé en annexe.
Il est prévu dans la loi qu’aucune exploitation ne
doit être faite à moins de 30 m des cours d’eau.
On prendra garde à ne pas réaliser les placettes de
mesures des forêts intactes auprès des rivières car la
typologie de la forêt y est sensiblement différente et
l’on obtiendrait des biais lors des comparaisons de
biomasse avec les zones mises à nues.
Le nombre de placettes à établir est calculé grâce à la
formule de Pearson et al. (2005) ci-dessous:
n = nombre de placettes à établir
N = nombre maximal de placettes réalisables dans
la zone d’étude
E = erreur relative acceptée sur la valeur de la
biomasse aérienne (%)
CV = coefficient de variation de la valeur de la
biomasse aérienne (%)
tst = quantile de Student avec un intervalle de
confiance de 95% et un degré de liberté
de n-1
La planification du nombre de placettes
d’échantillonnage nécessite d’avoir une idée du
coefficient de variation (CV) de la grandeur à prédire
(ici le volume de bois). Le coefficient de variation
d’une grandeur est le rapport de son écart-type sur
sa moyenne, et quantifie donc sa variabilité. Dans
le cadre de la planification de la mise en place des
placettes, le coefficient de variation n’a pas besoin
d’être connu avec une très bonne précision : un ordre
de grandeur suffit, dans la mesure où le coefficient de
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 23
variation effectif (et donc la précision de l’estimation)
sera calculé dans la phase de traitement des données.
La taille de l’échantillon est estimée pour les
différentes strates en admettant 10% d’erreur relative
(E), soit un intervalle de confiance de 95%. Ensuite
pour chaque strate on détermine le nombre de
placettes nécessaires en pondérant par les superficies
correspondantes.
Les paramètres à determiner préalablement à
l’inventaire sont donc :
•• L’erreur désirée sur la quantité de
biomasse (10 %)
•• La surface de référence pour cette erreur
•• Le coefficient de variation de la variable
(biomasse)
Par ailleurs, les mesures de carbone étant rapportées
sur une projection horizontale, on utilise un facteur
de correction pour la constitution des placettes se
situant sur une zone de pente. L’angle de la pente
doit être mesuré en utilisant un clinomètre et si la
pente est supérieure à 10%, la surface de la placette
doit être ajustée.
•• Placettes pour estimer les dommages collatéraux :
Ces placettes sont décrites en annexe.
Fréquence des mesures
Tableau 20 : Fréquence de mesure des paramètres de suivi de l’impact carbone de l’exploitation forestière
PARAMETRES
DONNEES
MODES D’ACQUISITION
FREQUENCE
Stocks de carbone
des forêts avant
exploitation
H, DHP, D, équation allométrique
Mesures de terrain et/ou
littérature
Une fois avant le
démarrage du
programme, puis
tous les 5 ans
Emprise spatiale
des infrastructures
d’exploitation
Superficie pistes principales, pistes
Télédétection + Tracé des
secondaires et parcs à grumes.
pistes en routine après
Ouverture de la canopée = disparition exploitation (GPS) + mesure de
totale ou partielle de la végétation
largeur des pistes secondaires
Annuellement
Dégâts d’exploitation
Superficie des trouées d’abattage
Télédétection
Annuellement
Dommage collatéraux
Arbres exploités, arbres morts ou
arbres blessés avec chacun un code
spécifique selon l’intensité des
blessures
Mesures de terrain
Une fois avant le
démarrage du
programme
Pourcentage de
rémanents laissé sur
site après abattage des
arbres
Biomasse totale - Biomasse grume
Calcul et équation
Annuellement
allométrique d’après les
données du volume exploité et
de la biomasse aérienne initiale
Volumes exploités
Volume de grumes réellement sorties
Autorisations de circulation
de grumes attribuées par
l’administration
Annuellement
Pourcentage de
transformation et types
de produits bois
Taux d’utilisation et durée de vie
Littérature + site IPT
Une fois avant le
démarrage du
programme
Régénération après
Accroissement et recrutement des
exploitation sur assiette nouvelles tiges
de coupe
Littérature et mesures de
placettes permanentes
Tous les 5 ans
Taux de décomposition
du bois mort issu de
l’exploitation
% de biomasse ligneuse fine et
biomasse ligneuse grossière
Taux de décomposition
Littérature
Une fois avant le
démarrage du
programme
Durée de vie des
produits bois
Taux de décomposition par type de
produit bois
Littérature
Une fois avant le
démarrage du
programme
24 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
Application du protocole
Stratification des zones affectées par l’exploitation
et estimation des dégâts correspondants
A partir de l’analyse bibliographique et de la
connaissance des forêts exploitées, le protocole de
mesure des impacts de l’exploitation repose sur les
principes suivants :
•• Mise en place d’une stratification de la parcelle
après exploitation en fonction de l’intensité de
perturbation. On distingue 3 classes :
−− Zones affectées sans végétation au sol et
avec ou sans ouverture de la canopée ; il
s’agit des différents types d’impacts : trouées
d’abattage, aire de stockage des grumes, pistes
principales et secondaires.
−− Zone affectée avec un mélange d’arbres
morts, blessés et vivants. Ces zones se
trouvent en périphérie de chaque zone de la
classe précédente, nous les nommons zones
tampons.
−− Zone non perturbée par l’exploitation ;
La stratification correspond au découpage au sein
d’une parcelle en différentes classes et sous-classes et
au calcul de la surface correspondante.
•• Association d’un coefficient de dégâts
indiquant la quantité de biomasse perdue par
unité de surface pour la classe (et sous classe)
correspondante.
On considère les trouées comme des zones sans
végétation au sol, car même s’il reste des branchages
grossiers, le bois étant mort il ne présente plus aucun
signal et l’image satellite montre une zone de sol nu.
Pour les pistes principale et secondaire les
observations montraient des dégâts de type et
d’intensité différents. Il a donc été décidé de les
mesurer séparément. Dans le cas ou les trouées se
trouvent en bordure de la piste principale et qu’il est
difficile de distinguer la limite entre les deux impacts,
on applique la limite de la trouée sur toute la zone
concernée.
Obtention des données
•• Les stocks de carbone des forêts avant
exploitation
Les données collectées afin d’estimer les dégâts
d’exploitation collatéraux dans les zones affectées
indirectement par les infrastructures et trouées
fournissent des estimations locales de biomasse
et stocks de carbone des forêts avant exploitation
sur les deux sites étudiés.
•• Estimation des surfaces des zones sans végétation
Comme vu précédemment, les méthodes de
télédétection permettent d’identifier les surfaces
des trouées, pistes principales et aires de stockage
des grumes. Pour les pistes secondaires, des
relevés au GPS du tracé de pistes en routine sont
réalisés sur le terrain de même que des mesures de
la largeur moyenne de pistes. La largeur moyenne
de la piste secondaire est obtenue d’après 25
mesures réalisées de manière systématique le
long des pistes secondaires sur un échantillon
représentatif de la parcelle.
Le protocole a été appliqué sur un seul des deux
cas pilotes : l’assiette de coupe de l’exploitation
Nossa Senhora Aparecida, d’une surface de 354
ha. La surface affectée est de 39,7 ha, soit 11,2%
de la surface totale de l’assiette de coupe.
•• Estimation des surfaces des zones tampons
Les mesures de terrain réalisées dans la zone de
Cotriguaçu ont permis d’estimer l’étendue de la
zone tampon affectée par des dégâts collatéraux
autour des trouées, des pistes principales, des
1 Zone non exploitée
Forêt intacte
1
E
B
A
3
2
C
2 Zone sans végétation
Trouée d’abattage (E)
Piste principale (A)
Piste secondaire (B)
Parc de stockage (C)
3 Zone tampons
Peuplements résiduels
Figure 9 : Représentation des trois strates définies au sein de la parcelle
d’exploitation
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 25
Mesure terrain
littérature
Mesure terrain
Image satellite
Mesure terrain
Mesure terrain
littérature
Forêt intacte
Peuplement résiduel
Trouée d’abattage
Pistes I et II
Aire de stockage
Peuplement résiduel
Forêt intacte
ZONE NON EXPLOITEE
ZONE TAMPON
ZONE SANS VEGETATION
AU SOL
= PROJECTION AU SOL
ZONE TAMPON
ZONE NON EXPLOITEE
Quantité de carbone
0
Figure 10 : représentation des différentes zones après stratification
Figure 11 : Représentation des dégâts d’exploitation de l’exploitation Nossa Senhora Aparecida sur l’image
satellite Pleiades
26 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
Figure 12 : Représentation des trouées et de la piste principale et de leur zone tampon.
pistes secondaires et des parcs de stockage des
grumes. Toutes traces, marques et blessures
occasionnées par l’exploitation donc par
les machines ou par les arbres abattus sont
considérées ici comme des dégâts.
Les mesures se sont déroulées en juillet et
août 2012 sur 2 sites distincts, Nossa Senhora
Aparecida (NSA) et São Geraldo (SG) où
l’exploitation avait débuté en juin 2012. Des
placettes de mesure ont été mises en place en
bordure de chacun des quatre types d’impacts (cf.
annexe). Conformément aux recommandations
des méthodologies VCS, la mesure du diamètre
était effectuée à 1,30 m. Chaque placette
mesurait 10 m de large et était d’une longueur
variable correspondant à la limite de la fin des
dégâts. Entre 20 et 60 placettes ont été installées
pour chaque type d’impact dans chacune des
deux zones d’étude. Le diamètre de pré-comptage
débutait à 10 cm de Dhp pour permettre de
comparer les résultats avec les études déjà
réalisées. La taille des placettes étant variable,
le nombre de placettes n’a pas été calculé selon
la méthode conventionnelle avec la formule
de Pearson et al (Pearson & Brown 2005). Un
nombre minimum de placettes (20 pour chaque
type de dégâts dans chaque exploitation) a été
fixé puis adapté en fonction des résultats. Les
mesures ont donc été réalisées à des intervalles
différents et les données analysées entre chaque
mesure afin de déterminer si les résultats étaient
satisfaisants ou si une nouvelle collecte de
données était nécessaire. La collecte des données
a donc été réalisée en quatre temps, une journée
d’observation, puis 3 semaines de terrain (au
cours desquelles l’équipe de mesure restait
sur l’exploitation) espacées chacune de 1 à 2
semaines.
Les résultats sont présentés dans le Tableau 21. Dans
le cas de la piste principale les écarts s’expliquent
par la différence des techniques de débardage.
En effet si les trouées d’abattage sont situées
directement au bord des pistes principales comme
dans le cas de la zone d’étude 1 alors la limite est
proche des trouées d’abattage. Dans le cas de la
zone d’étude 2, étant donné que les trouées étaient
éloignées de la piste principale, on était plus proche
du cas des pistes secondaires.
En se basant sur les superficies des zones affectées
sans végétation, on calcule la surface de la zone
tampon autour de chaque type de dégâts en suivant
les données obtenues (en mètres linéaires) dans le
tableau ci-dessus.
Les limites à suivre pour le calcul des surfaces
des zones tampons B, C et E sont les moyennes
obtenues pour les deux zones d’études. Dans le
cas des pistes principales, la limite utilisée sera
2,6 m et dans le cas où la trouée est directement
sur la piste principale, on utilise la distance de
6 m correspondant à E. La surface de chaque zone
tampon est ensuite calculée sous SIG à l’aide de
l’outil « buffer (tampon) », en se basant sur les
limites données dans le Tableau 21 ci-dessus.
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 27
Tableau 21 : Limites des zones tampons et nombre de placettes de mesures pour chaque type de dégâts
Type de zone tampon
Nossa Senhora Aparecida
São Geraldo
Deux sites
Limite moyenne
Nb de
Limite moyenne
Nb de
Limite moyenne
(en ml)
placettes
(en ml)
placettes
(en ml)
Nb de
placettes
Piste principale (A)
7,7 ± 0, 8
51
2,7 ± 0,3
66
4,9 ± 0,4
117
Piste secondaire (B)
3,1 ± 0,5
33
3 ± 0,6
20
3,1 ± 0,4
53
Parc de stockage (C)
8,7 ± 1,1
29
7,2 ± 1
23
8,1 ± 0,8
52
Trouée d’abattage (E)
5,8 ± 0,6
36
6,5 ± 0,6
45
6,2 ± 0,4
81
Tableau 22 : surfaces des zones sans végétation et des zones tampons
Surface affectée
Zones sans végétation
Zones tampons
Surface (ha)
% de la surface totale
de l’assiette de coupe
Surface (ha)
% de la surface totale
de l’assiette de coupe
Piste principale (A)
8,7
2,5
20,8
5,9
Piste secondaire (B)
7,1
2,0
14,7
4,2
Parc de stockage (C)
2,5
0,7
5,0
1,4
Trouée d’abattage (E)
21,4
6,0
38,2
10,8
Total
39,7
11,2
78,7
22,2
•• Estimation des coefficients de dégâts dans les
zones sans végétation
Le carbone émis correspond à une estimation de
la quantité moyenne de carbone de la forêt avant
exploitation dans les surfaces correspondant aux
zones impactées sans végétation.
On utilise des données collectées par ICV (cf.
section scénario de référence).
•• Estimation des coefficients de dégâts dans les
zones tampons
Les mesures réalisées sur les deux sites ont permis
d’estimer un pourcentage de dégâts au sein
des trouées d’abattage, des pistes principales,
des pistes secondaires et des aires de stockage
des grumes.
Au sein des placettes décrites ci-dessus, tous les
arbres vivants, sur pied ou au sol de plus de 10
cm de Dhp (diamètre à hauteur de poitrine) ont
été mesurés, le statut vital noté (sain/abîmé) et les
éventuelles blessures liées à l’exploitation ont été
codées selon leur intensité. Les types de dégâts
sont distingués selon leur localisation sur l’arbre :
houppier (DC) et tronc (DT) et ils sont divisés
en trois sous- catégories d’intensité croissante 1,
2 et 3. Pour les calculs finaux, DT3 et DC3 sont
considérés létaux. Les individus annotés ainsi
sont donc comptabilisés comme bois mort.
L’estimation des stocks de biomasse vivante
(en tC/ha) dans les zones exploitées est réalisée
en utilisant une méthodologie similaire à celle
utilisée dans les zones hors exploitation. La
seule différence est l’utilisation de l’équation
allométrique proposée par Chambers et al.
(Chamber et al. 2001) et modifiée par Baker
et al. (Baker et al. 2007) pour l’estimation de
la biomasse vivante au-dessus du sol, plutôt
que de l’équation allométrique développée par
Nogueira et al. (Nogueira et al. 2008). L’équation
allométrique développée par Chambers et al.
(2001) et modifiée par Baker et al. (2007)
retient comme variable indépendante la densité
spécifique du bois, nécessaire dans les zones
dégradées qui peuvent présenter une forte
densité d’espèces à croissance rapide et à faible
densité de bois. Cette équation allométrique
ayant été développée pour les zones forestières
en Amazonie centrale, les corrections de la
hauteur et de la densité proposées par Nogueira
et al. (2008) y ont été intégrées. Les valeurs de
densité du bois utilisées ont été extraites de la
base de données générale des densités spécifiques
de bois (Global wood density database,
Chave et al., 2009).
La biomasse moyenne à été obtenue d’après la
mesure de tous les arbres vivants dans la zone
tampon délimitée. La future biomasse perdue
correspond aux arbres gravement blessés et qui
28 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
Tableau 23 : Equations allométriques utilisées pour estimer la biomasse sèche (AGB) de chaque individu
Forme de vie
Équation allométrique
Source
Arbres
(D/0,67*(exp(0,33*ln(Dhp)+0,933*ln(Dhp)^2-0,122*ln(Dhp)^3-0,37)))*0,84
Baker & al (2007)
Palmiers
(exp(0,9285*ln(Dhp )+5,7236)*1,05001)/10
Nascimento &
Laurence (2002)
2
3
Avec AGB arbres et palmiers en kg et Dhp: diamètre à hauteur de poitrine en cm.
Tableau 24: Perte de biomasse pour chaque type de dégâts pour les deux exploitations
Fazenda Nossa Senhora Aparecida
Type de zone tampon
Biomasse Moyenne
t/ha
Biomasse après
mortalité t/ha
Biomasse perdue
t/ha
% de biomasse
perdue
Piste principale (A)
249,1 ± 33,2
231,9 ± 32,9
17,2 ± 5,8
8,5
Piste secondaire (B)
248,6 ± 45,7
220,7 ± 44,2
27,9 ± 25,3
11,3
Aire de stockage (C)
278,9 ± 36,3
254,6 ± 36,3
24,3 ± 8,8
10,2
Trouée (E)
225,7 ± 25,3
195 ± 23,5
30,6 ± 10,9
11,9
Toutes zones confondues
10,5
Fazenda São Geraldo
Type de zone tampon
Biomasse Moyenne
t/ha
Biomasse après
mortalité t/ha
Biomasse perdue
t/ha
% de biomasse
perdue
Piste principale (A)
343,7 ± 60,6
313,9 ± 59,6
29,8 ± 20,2
8,6
Piste secondaire (B)
265,1 ± 50,8
233,6 ± 53,7
31,5 ± 20,2
8,1
Aire de stockage (C)
220,1 ± 32,9
198,9 ± 31,9
21,2 ± 9,0
9,8
278 ± 28,8
246,2 ± 30,5
31,7 ± 14,5
14,4
Trouée (E)
Toutes zones confondues
allaient mourir dans l’année de leurs blessures
(intensité de dégâts code 3).
Après analyse statistique on peut affirmer que
l’intensité des dégâts entre les différentes zones
A, B, C, E est remarquablement homogène. En
termes de perte de biomasse, l’impact des dégâts
est d’environ 10,3 % dans les deux zones pour
toutes les zones tampons.
•• Biomasse des grumes commercialisées
La quantité de biomasse des grumes
commercialisables se calcule d’après le facteur du
volume et de la densité de chaque espèce spécifiée
dans le plan d’aménagement (PMF). Cependant,
le volume de bois commercialisable indiqué dans
le PMF ne correspond pas au volume réellement
commercialisé du fait des grumes laissées sur
place par l’exploitant. Il serait donc plus fiable
d’utiliser les données issues des autorisations de
circulation de grumes délivrées à l’exploitant par
l’administration. En l’absence de ces données,
10,2
nous avons fait l’hypothèse d’une intensité de
récolte de 20 m3 par ha, taux moyen observé
dans la zone de Cotriguaçu. On multiplie ce
volume par la densité moyenne pondérée par
les volumes des espèces indiquées dans le plan
d’aménagement afin d’obtenir la biomasse des
grumes commercialisées.
Sur le site de NSA, la biomasse des grumes
commercialisées est ainsi estimée à 2 248 tonnes
de carbone.
•• Pourcentage de rémanents laissés sur site après
abattage des arbres
Le pourcentage de rémanents laissés sur site après
abattage des arbres est estimé en soustrayant
la biomasse de grumes commercialisées de la
biomasse totale des trouées d’abattage.
•• Taux de décomposition du bois mort issu de
l’exploitation
Pour estimer la décomposition du bois mort, il
est important de séparer la biomasse ligneuse fine
Appui à la gestion durable des forêts du bassin du Congo et du bassin amazonien brésilien 29
Tableau 25 : Estimation des rémanents laissés sur site
après abattage
Site de NSA
Valeur
Surface des trouées d’abattage
21,4
ha
Biomasse par ha des trouées
d’abattage
268
tC/ha
Biomasse aérienne totale dans
les trouées d’abattage
2 868
tC
Biomasse des grumes
commercialisées
2 248
tC
Biomasse des rémanents
620
tC
% des rémanents sur la
biomasse totale
Unité
8,9
%
(FWB) qui se décompose rapidement (feuilles,
brindilles et les branches de petit diamètre), de
la biomasse ligneuse grossière, qui se décompose
plus lentement (LWB) (Chamber et al. 2001),
(Keller et al. 2004).
Le pourcentage représenté par les FWB et
LWB a été déterminé d’après la moyenne de la
totalité des arbres exploités auquel on a appliqué
l’équation allométrique de Nogueira séparant la
couronne (FWB) et le fût de l’arbre (LWB).
Les parties fine FWB représentent ainsi 10 %
de la biomasse totale de l’arbre et les parties
grossières LWB 90% si l’on se base sur les
données des inventaires pré exploitation de la
zone de Cotriguaçu.
Le taux de décomposition de FWB est basé sur
une formule de décroissance exponentielle, Mt
= Mo e (-kt). Il est déterminé par la littérature.
On suppose que FWB se décompose rapidement,
avec kFWB = 0,501 (Eaton 2001).
Concernant KLWB nous nous basons sur la
formule proposée par Chambers et al. (2000)
en prenant en compte la densité moyenne de
toutes les espèces échantillonnées au sein de
l ‘exploitations : KLWB = (0.918 - 0.738* WSG moy
). Le taux le plus faible de décomposition
exploitation
est limité à 2% par an (Chambers et al. 2000).
•• Taux de transformation et types de produits bois
Le taux de transformation des grumes en scierie et
les types de produits bois doivent être déterminés
pour connaître la quantité de carbone qui sera
stockée dans les produits bois et celle qui sera
émise directement au cours du processus de
transformation. On se base sur des données de la
littérature (voir site de l’IPT : http://www.ipt.br) ou
sur des enquêtes dans les scieries.
Sur la base d’entretiens avec les principaux
acteurs du secteur, nous avons estimé le taux de
transformation à 55% pour la zone de Cotriguaçu.
Les 45% perdus sont considérés comme oxydés et
émis dans l’atmosphère instantanément.
Les produits bois de la région sont tous destinés à
la construction et sont classifiés comme bois scié ou
panneaux bois.
•• Régénération après exploitation de l’assiette
annuelle de coupe
En l’absence de données plus locales, on utilise
les données issues du site de Paracou en Guyane
Française.
•• Taux de décomposition par type de produit bois
La perte de carbone doit être modélisée comme suit
(VM0010) :
•• Pour les produits bois à court terme et les déchets
de bois qui se désintègrent dans les 3 ans, tout
le carbone doit être considéré comme perdu
immédiatement.
•• Pour les produits bois à moyen terme qui
sont retirés dans un délai de 3 à 100 ans, une
fonction de décroissance linéaire de 20 ans doit
être appliquée.
•• Pour les produits bois à long terme qui sont
considérés comme permanents (c’est-à-dire que
Tableau 26 : Paramètres de l’équation de la biomasse aérienne (Nogueira et al. 2008)
Modelo
Parâmetrosa
α (±SE)
95% ICb
β (±SE)
Limite
Limite
inferior superior
95% ICb
n
r2 ajustado
SEEc
Limite
Limite
inferior superior
Árvore inteira - 1,716 (0,079)
- 1,872
- 1,560
2,413 (0,029)
2,357
2,470
262
0,964
0,306
Fuste
- 1,929 (0,093)
- 2,111
- 1,746
2,335 (0,034)
2,269
2,402
262
0,949
0,359
Copa
- 3,355 (0,146)
- 3,642
- 3,069
2,578 (0,053)
2,474
2,682
261
0,901
0,564
Avec (ln (poids sec) = α + β ln (Dhp)) pour les arbres étudiés en forêts ouvertes du sud de l’Amazonie (SA) (variation du
diamètre 5-124 cm)
30 Nicolas Grondard, Laura Pavoine, Soraya Molina, Maxence Rageade, Oriane Pledran et Richard Eba’a Atyi
Tableau 27 : Croissance et recrutement. Biomasse
aérienne moyenne (écart-type) sur le site de Paracou
(Sist et al. 2012) :
Nombre
d’années après
exploitation
Croissance AGB
en t/ha/an
Recrutement
AGB en t/ha/an
-2 - 0
4,50 ±1,5
0,36 ± 0,3
0-2
5,12 ± 0,8
0,33 ± 0,1
2-4
6,20 ± 1,0
0,68 ± 0,3
4-6
5,57 ± 0,9
1,10 ± 0,6
6-8
5,88 ± 0,9
0,55 ± 0,3
8 - 11
5,83 ± 1,1
0,98 ± 0,3
11 - 15
5,58 ± 0,8
1,17 ± 0,3
15 - 19
6,17 ± ± 1,1
0,67 ± 0,2
19 - 23
4,84 ± 1,2
0,35 ± 0,1
Tableau 28 : Taux de décomposition des différents
types de produits bois (Winrock)
Commodité
Taux de décomposition
Bois scié
0,02
Panneaux à base de bois
0,04
Autres bois ronds
industriels
0,08
Papiers et cartons
0,1
le carbone est stocké pendant 100 ans ou plus),
on peut supposer qu’il n’y a pas de carbone libéré
(AFOLU Requirements, 2012).
Nous avons suivi les étapes suivantes :
•• Etape 1 : Déterminer la proportion de perte lors
de la conversion d’une grume en produits bois,
d’après la littérature ou les entretiens avec les
gérants des scieries (45%). La perte est considérée
comme étant oxydée au cours de l’année de
l’exploitation.
•• Etape 2 : Mettre en application la proportion de
produits bois estimée durer plus de cinq ans : 0,8
pour le bois scié, 0,9 pour les panneaux de bois,
0,7 pour le bois rond industriel et 0,6 pour le
papier cartonné. Le reste est oxydé.
•• Etape 3 : Pour chaque année successive de la
vie du projet, calculer la proportion oxydée en
utilisant les taux de décomposition spécifique
pour les régions tropicales.
Calcul des émissions et absorptions
•• Sur une assiette annuelle de coupe
Le calcul des émissions et absorptions a été
réalisé sur le cas d’étude de l’assiette de coupe de
l’exploitation Nossa Senhora Aparecida, d’une
surface de 414 ha, dont 354 ha exploités.
Les calculs sont réalisés sur Excel. A partir
des données obtenues sur le terrain et dans la
littérature, on estime :
1. les flux depuis les compartiments de
biomasse vivante (aérienne et souterraine)
vers l’atmosphère (émissions de carbone
instantanées), les compartiments bois mort et
produits bois ;
2. les émissions de carbone depuis les
compartiments bois mort et produits bois au
cours du temps en fonction de leurs taux de
décomposition respectifs ;
3. Les absorptions.
•• Les émissions et absorptions de carbone de
l’assiette de coupe sont ainsi estimées année par
année sur l’ensemble de la durée de rotation, fixée
à 25 ans.
| 35,238
|
dumas-04244622-JAAFAR_%20ilham_h-g_2019.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Les romans de Naguib Mahfouz pour comprendre l'Égypte de l'entre-deux guerres : la littérature au service de l'enseignement en histoire. Education. 2019. ⟨dumas-04244622⟩
|
None
|
French
|
Spoken
| 7,473
| 12,862
|
Des transformations qui ne sont pas faciles à vivre. Pour Kamal par exemple, la question
qui le taraude est celle de l'utilité du mariage : d'un point de vue sociétal, le mariage est un
objectif vers lequel poussent les valeurs traditionalistes de la société égyptienne. Mais au
sein de la génération de Kamal, la conception du mariage comme une fin en soi devient
de plus en plus dérangeante, poussant le jeune homme à considérer la chose comme un
emprisonnement. Les hésitations de Kamal sur le plan personnel sont ainsi le reflet des
questionnements de toute une génération qui hésite entre le respect de la tradition et des
49 Mot arabe signifiant la pensée, la réflexion, plus particulièrement dans le sens philosophique du terme.
34
normes sociales, et la modernité de la pensée et des mœurs apportée par la découverte
du monde occidental, que cela soit par le biais de la colonisation ou de l'éducation d'une
diaspora égyptienne formée dans les universités européennes. Kamal, personnage
marquant de la « Trilogie », est ainsi le symbole de l'évolution des mentalités. La
psychologie du personnage devient en ce sens importante à analyser et à comprendre,
car dans le cadre d'une histoire des mentalités, l'approche psychologique et philosophique
abordée par Mahfouz permet d'incarner les évolutions mentales et sociales. Les
oppositions de Kamal à son père, et même ses oppositions personnelles, sont le reflet
d'une société et des influences multiples qui la traversent. Cette dualité et cette complexité
des sentiments exprimés par les personnages donnent une vision vivante des transitions
sociales qui se font sur un temps long. L'évolution des valeurs auxquelles obéit la famille
d'Abd Al Gawwad se fait sur plusieurs décennies : le passage d'une domination patriarcale
totale dans le premier volume de la « Trilogie » à une affirmation des libertés de la jeune
génération dans le troisième volume prend du temps à maturer, car les évolutions sociales
et politiques qui mettent du temps à s'installer.
La complexité et la précision psychologique des personnages permet d'incarner
une autre réalité historique source de conflictualité au sein de la « Trilogie » : la place de
la femme égyptienne dans la société. En évoquant la condition féminine pendant la
période de l'entre-deux-guerres en Égypte, la figure d'Amina pourrait nous sembler être la
plus représentative. Selon les valeurs traditionnelles qui dominent l'époque, la femme
dépend fortement des figures masculines qui l'entourent. La présence du père, d'un frère,
d'un mari ou d'un membre masculin semble indispensable pour trouver sa place dans la
société. Néanmoins, à travers les différents personnages féminins qui évoluent dans la
« Trilogie », on se rend compte que la condition féminine ne se résume pas uniquement à
l'exemple d'Amina (sans pour autant négliger la complexité du personnage).
Dans les années 1920-1930, la question de la place des femmes dans la société se
pose, et ce particulièrement dans le cadre de la lutte pour l'indépendance. Comme le
précise l'historienne Layla Dakhli dans son ouvrage Histoire du Proche-Orient
contemporain50, les luttes féministes qui émergent en cette période sont soumises à
différent type de dominations : une domination patriarcale, une domination religieuse et
une domination coloniale. La dernière est particulièrement inintéressante, car dans le
cadre de la lutte pour l'indépendance, la défense des droits des femmes par les Anglais
est loin de faciliter les choses. Voici ce qu'en dit Layla Dakhli :
50 Layla Dakhli, Histoire du Proche-Orient contemporain, éditions La Découverte, mai 2015.
35
« L’expérience coloniale montre pourtant que la
présence européenne ne fait que renforcer les
hiérarchies sociales et la domination masculine
redoublées par la domination coloniale. […] Les
revendications sont conditionnées à la fin de la
domination coloniale, même si les féministes
cherchent parfois — sans illusion — à obtenir leurs
droits de la part des puissances mandataires. Des
figures ont émergé au tournant du XXe siècle,
dessinant un mouvement féministe et féminin
composite autour de salons littéraires, d’associations,
d’actions politiques plus ou moins spectaculaires, de
fondations d’écoles pour les jeunes filles, de journaux
féminins où l’on évoque aussi bien la mode venue de
Paris que la question de la majorité pour les femmes :
May Ziyadé, Marie Ajami, Julia al-Dimishqiyya, Esther
Moyal, Zahra al-’Ali et tant d’autres à leur suite. Le
mouvement féministe est en tension, pris entre la
subordination
patriarcale,
les
appartenances
nationales et l’affirmation de son autonomie. »
Ce que l'on perçoit à travers les analyses historiques mais aussi à travers les
représentations des personnages féminins de Mahfouz est que cette lutte pour
l'indépendance féminine est complexe, et surtout qu'elle s'inscrit dans une période longue
et suit des modalités très diverses. Il est clair que les femmes égyptiennes dans les
années 1920-1930 ne sont pas reléguées uniquement à leur rôle de femme au foyer,
aspect sur lequel Mahfouz insiste notamment dans Impasse des deux palais : Amina,
ses filles, les voisines, et même l'almée Zubaïda sont majoritairement confinées entre les
mures de leurs demeures, même si la pression patriarcale et sociétale ne s'exerce pas de
la même manière sur toutes ces femmes. Il est important de préciser que dans l’Égypte du
début du XXe siècle, l'action politique des femmes égyptiennes existe bel et bien. Des
photographies d'époque témoignent par exemple de leur participation aux manifestations
pour la libération de Saad Zaghloul et la lutte pour l'indépendance 51; dans les congrès
internationaux, les revendications des femmes en terme d'éducation et d'égalité sont
portées par des déléguées choisies dans les associations et cercles intellectuels féminins
qui se développent progressivement52. Les femmes dans l’Égypte de l'entre-deux-guerres
51 « 1919 et la lutte nationale servent de catalyseur. Elles donnent aux femmes l'occasion de sortir de leur claustration.
Le dévoilement public de Hudâ Cha‘râwî et de Céza Nabarâwî en gare du Caire au retour du congrès de l'Alliance
internationale féministe pour le droit de vote et l'égale citoyenneté, en juin 1923, constitue une nouvelle étape dans
l'émancipation des femmes égyptiennes. » A.-C. De Gayffier-Bonneville. Histoire de l'Égypte moderne: L'éveil
d'une nation (XIXe - XXIe siècle), éditions Flammarion.
52 « Les mouvements féministes arabes et musulmans ont pris leur essor bien avant l’entre-deux-guerres ; des
déléguées arabes sont présentes dans les congrès internationaux des femmes et elles y présentent les revendications
spécifiques des femmes orientales, en termes d’accès à l’égalité, de droits politiques et sociaux, de liberté, tout en se
36
ne sont pas que des Amina. Mahfouz tente de montrer cette diversité des positions
féminines tout au long de la « Trilogie » : Khadija par exemple, la fille aînée d'Amina,
semble suivre dans un premier temps la trajectoire de sa mère, considérant que le
mariage est la seule solution pour être une femme accomplie. Mais une fois entrée dans la
vie conjugale, son caractère affirmé lui permet de prendre de l'assurance, et de s'imposer
dans son cercle familiale, osant même prendre le dessus sur son mari concernant les
décisions de leurs enfants53. Néanmoins, la force de caractère à elle seule n'est pas
suffisante pour accéder à une indépendance totale. Plus particulièrement dans le cadre de
la domination coloniale anglaise qui renforce la volonté de contrôler les femmes. La
défense des libertés des femmes affichée par les Anglais instaure une crainte au sein de
certains partisans de l'indépendance, qui pensent qu'une libération des femmes selon les
valeurs occidentales serait un élément de faiblesse. Dans la « Trilogie », cette crainte est
exprimée par un épisode qui bouleverse Kamal, lorsque la fille des voisins, dont il est
amoureux et qu'il prend la liberté de rencontrer sur la terrasse de la maison familiale, est
surprise en train de sourire à un soldat anglais. Il est hors de question que cette lutte pour
les droits des femmes soit l'occasion pour les puissances étrangères de renforcer leur
influence. En ce sens, les mouvements féministes se trouvent dans une situation
particulièrement délicate.
Pour les femmes égyptiennes, l' élément essentiel dans l'accès à émancipation est
l'éducation qui, progressivement, amène une indépendance financière, un facteur
important dans leur affranchissement des contraintes sociales et plus particulièrement
religieuses. Dans Le Jardin du Passé, les jeunes femmes les plus libres, les plus
émancipées en cette fin des années 1930 et au début des années 1940, sont celles qui
sont actives, soit grâce à leur études, soit à leur travail. La jeune femme dont tombe
amoureux Ahmed, le fils de Khadija, est issue d'une classe sociale inférieure par rapport
de ce dernier, mais elle semble néanmoins jouir d'une liberté auxquelles les femmes de la
famille d'Abd Al Gawwad ne pouvaient prétendre jusqu'ici, justement parce qu'elle a
bénéficié d'une éducation. Dès les débuts de la lutte pour l'émancipation, les femmes
issues des classes les plus riches sont souvent celles qui bénéficient d'une éducation
moderne et poussée, leur permettant d'accéder, les premières, à l'émancipation. À la fin
joignant aux revendications communes. » Layla Dakhli, Histoire du Proche-Orient contemporain, éditions La
Découverte, mai 2015.
53 Dans le troisième volume de la « Trilogie », Le Jardin du Passé, Khadija affirme son opposition au mariage de son
second fils Ahmed. Le dialogue qui intervient entre le père, la mère et le fils montre clairement que Khadija domine
son mari en ce qui concerne les affaires familiales, ce dernier ayant l'air totalement effacé en face d'elle.
37
des années 1930, l'accès au cursus universitaire est accordé aux femmes ; en parallèle, le
dévoilement se met progressivement en place. C'est donc un courant avant tout
intellectuel qui contribue à l'amélioration de la condition féminine. Une amélioration qui
n'aurait pu se faire sans le soutien des hommes à cette cause, car dès les balbutiements
des premiers courants féministes, certains prennent parti pour amélioration de la condition
féminine : Saad Zaghloul par exemple est un des premiers hommes politiques à associer
sa femme à son action politique. Les premières tentatives d'intégration des femmes dans
le monde actif sont certes timides, mais les années 1920 et 1930 sont un véritable
tournant pour l'accès des femmes à des droits nouveaux, chose qui se confirme dans les
années 1940. C'est ainsi que nous arrivons à une scène révélatrice de ces évolutions
dans Le Jardin du Passé : Ahmed, le fils de Khadija est désormais marié à la femme qu'il
a choisi, Sawsan. Cette dernière, au grand désarroi de sa belle-mère, est une femme
active, et ce sur le plan professionnel mais également politique. On apprend ainsi qu'elle
fait partie des groupes de discussions mixtes et multiconfessionnels qu'organise son mari :
elle participe aux débats, organise les actions à mener, distribue des tracts sur le terrain.
Loin de l'image de sa grand-mère Amina, qui risqua d'être répudiée pour avoir osé rendre
visite au mausolée d'Al Hussain.
La précision dans la description des lieux et dans l'analyse psychologique des
personnages servent dans un premier temps l'esthétique réaliste des romans de
Mahfouz. Le monde décrit par l'auteur de la « Trilogie » regorge de détails qui plongent le
lecteur dans un univers complexe, mais construit de manière cohérente. Mahfouz inclut
dans cet univers un arrière plan historique dans lequel évoluent ces personnages, arrière
plan qui renforce la sensation de réalisme. Mais dans le même temps, les personnages
construits par Mahfouz, la complexité de leur profil psychologique, permet également
d'incarner les réalités historiques de l’Égypte de l'entre-deux-guerres. En effet, même s'ils
sont construits de toutes pièces, les émotions et les péripéties auxquels ils sont soumis
sont le fruit d'un travail d'observation minutieux de la part de Mahfouz. Il reconnaît luimême être profondément inspiré de ce qu'il a vécu et de ce qu'il a observé. La « Trilogie »
permet donc d'inscrire les grands événements historiques de l’Égypte des années 1920
aux années 1940 dans à une échelle plus précise, celle d'une famille et celle d'un quartier,
ce qui paradoxalement permet de comprendre ces événements sous une lumière
nouvelle, car ils sont analysés selon le point de vue d'une partie de la population souvent
invisible dans les récits historiques décrivant la période et la région qui nous intéressent.
38
Chapitre 3. La « Trilogie » dans l'enseignement de l'histoire de
l’Égypte de l'entre-deux-guerres : intérêts et possibilités d'une
exploitation en classe
L'enseignement de l’Égypte de l'entre-deux-guerres : état des
lieux dans les programmes54 et dans les manuels scolaires
Programmes et recommandations des textes officiels
Dans les programmes scolaires, l'étude de l’Égypte pendant la période de l’entredeux-guerres semble relativement limitée. De manière générale, les enseignements en
histoire du second degré (en lycée plus particulièrement) invitent à une compréhension du
monde contemporain : pour mieux l'appréhender, l'analyse des événements passés est
nécessaire, car elle fournit aux élèves et futurs citoyens des clefs de compréhension. Un
des sujets majeurs abordés en classe de Terminale (filière générale et professionnelle)
s’intéresse aux « Puissances et tensions dans le monde de la fin de la Première
Guerre mondiale à nos jours », dont la problématique à laquelle il faut répondre avec les
élèves est la suivante : « Quelles sont les origines historiques d’une conflictualité qui
marque profondément le monde depuis l’après-Seconde Guerre mondiale ? ».
Parmi les questions abordées, une est
exclusivement
réservée à l'étude du
Proche et Moyen-Orient. L'étude de la région se fait à travers une notion centrale : celle de
la conflictualité. Le sous-thème est ainsi intitulé « Un foyer de conflits - Le Proche et le
Moyen-Orient, un foyer de conflits depuis la fin de la Première Guerre mondiale. » La borne
chronologique définie s'étend donc de 1918 jusqu'à nos, une période relativement vaste.
Les textes officiels ne recommandent pas une approche purement chronologique, mais des
thématiques précises, gravitant autour de la notion de conflit, doivent être abordées avec
les élèves : la colonisation, les luttes pour l'indépendance, la questions des ressources
(l'eau et le pétrole), la militarisation des pouvoirs, la monté de l'islamisme politique, la
question du terrorisme, et enfin celle des Printemps arabes sont des notions phares de ce
sous-thème.
Les objectifs de l'enseignement de ce sous-thème sont présentés de la manière
suivante :
54 Les programmes analysés sont ceux actuellement étudiés par les élèves, dans le cadre de l'année scolaire 2018-2019.
39
Ressources pour la classe – fiche éducsol. Histoire – Séries ES et L – Terminale - Thème 3 - Les chemins de
la puissance. Ministère de l’Éducation nationale, de l’Enseignement supérieur et de la recherche. Consultable
sur www.eduscol.education.fr
Le défis est donc de comprendre la complexité du Proche et Moyen-Orient en se
basant sur l'étude d'événements marquants, des moments considérés comme clefs dans
la compréhension des enjeux contemporains de la région. La séquence construite dans
le cadre de ce sous-thème doit donc prendre en compte l'ensemble de la région sans
pourtant en négliger les spécificités locales et nationales.
Chose intéressante, dans l'ensemble des textes officiels parcourus définissant les
recommandations du programmes, le terme « Égypte » n'apparaît jamais. Cela ne signifie
pas que le pays n'est pas abordé dans les sujets d'études, néanmoins il doit être étudié
40
dans le cadre de la région dans son ensemble. Les enjeux qui s'expriment sur le territoire
égyptien et les notions qui pourront y être abordées doivent pouvoir être applicables à
l'ensemble du Proche et Moyen-Orient. Le projet initial d'une séquence spécifiquement
dédiée à l’Égypte de l'entre-deux-guerres semble ici inadéquat, sur le plan chronologique et
le plan géographique définis par le sous-thème. Celui d'une séance semble quant à lui plus
abordable, notamment autour des notions de colonialisme (période du protectorat anglais
et ses enjeux), d'indépendance (la Révolution de 1919 sous l'égide de Saad Zaghloul),
d'islamisme politique (la naissance du mouvement des Frères musulmans et son
développement contemporain) ainsi que d'instabilité des régimes politiques (la montée en
puissances des pouvoirs militaires, avec l'aboutissement du coup d’État des Officiers en
1952, dont Gamal Abdel Nasser est à la tête).
Ressources proposées dans les manuels scolaires
Les manuels scolaires proposent des mises en œuvre très diverses qui, de manière
générale, sont fidèles aux recommandations des programmes. Cependant, en se
confrontant aux corpus documentaires proposés, on se rend compte que certains
événements de la chronologie proposées par le programmes sont davantage représentés
que d'autres. Plusieurs manuels ont été étudiés, cependant deux d'entre eux ont été
analysés plus en détail dans le cadre de ce mémoire :
•
le manuel d'Histoire pour les classes de Terminale, L-ES-S des éditions Hatier, sous
la direction de Guillaume Bourel et Marielle Chevallier, publié en 2014.
•
le manuel d'Histoire pour les classes de Terminale, L-ES-S de la collection G. Le
Quintrec, publié par les éditions Nathan, mis à jour en 2017.
Le manuel des éditions Hatier propose un ensemble de trente six pages consacrés
au sous-thème du Proche et Moyen-Orient. En voici le sommaire :
41
Neufs sujets d'études, constitués de documents divers, abordent les notions
principales évoquées par le programme, dans le cadre chronologique et géographique
imposés. La notion de conflictualité transparaît à travers les titres donnés aux différentes
parties. Une frise chronologique et deux cartes ouvres le sous-thèmes, permettant ainsi de
le contextualiser55. Certains documents évoquent la situation égyptienne, mais ne se
concentrent pas particulièrement sur le pays ou ne concernent pas directement la période
de l'entre-deux-guerres.
Le manuel des éditions Nathan56 adopte un plan quasi-similaire, en offrant un corpus
documentaire de trente deux pages consacré au sous-thèmes du Proche et Moyen-Orient.
En voici le sommaire :
55 Annexe 1.
56 Annexe 2.
42
À nouveau, la question de l’Égypte pendant l'entre-deux-guerres n'est pas un
élément central et n’apparaît que de manière très succincte dans les différents documents.
Trois pages en début du corpus sont consacrées à une contextualisations des événements
clefs : une frises chronologiques et des cartes permettent aux élèves de s'orienter
temporellement et spatialement.
Da manière générale donc, l’Égypte de l'entre-deux-guerres est traitée brièvement
dans les différentes pages de manuels scolaires. Les notions de colonialisme,
d'indépendance, de montée de l'islamisme, pouvant être appliquées à la société
égyptienne des années 1920 aux années 1940, sont abordées dans les manuels mais en
les appliquant à d'autres territoires comme par exemple l'Iran, Israël, ou le territoire
palestinien. L’Égypte n’apparaît en tant que sujet d'étude que pour appréhender le Proche
43
et
Moyen-Orient
dans
sa
totalité.
Lorsque
des
dossiers
documentaires
sont
spécifiquement consacrés à la question égyptienne, ils se concentrent particulièrement sur
le coup d’État de 1952 ou sur la guerre des Six Jours opposant l’Égypte, la Jordanie, la
Syrie et le Liban à Israël en 1967, dans le cadre conflit israélo-arabe.
Ce que la « Trilogie » de Mahfouz peut apporter
l'enseignement de l'histoire du Proche et Moyen-Orient
à
En prenant en compte les recommandations des textes officielles et en étudiant
certains outils proposés pour enseigner l'histoire du Proche et Moyen-Orient, on comprend
qu'une étude détaillée de la société égyptienne de l'entre-deux-guerres n'est pas à l'ordre
du jour. La « Trilogie du Caire » s'inscrit plus particulièrement dans cette période, et
permet de comprendre de quelles manières les classes moyennes et populaires ont vécus
les conflictualités et les transformations à cette époque. Cependant, même si l'objectif des
programmes n'est pas une étude spécifique de l’Égypte des années 1920 aux années
1940, quelques extraits de l'oeuvre de Mahfouz peuvent néanmoins permettre d'aborder et
de définir certaines notions qui ne sont pas uniquement applicables à l’Égypte, mais à
l'ensemble de la région.
Le choix s'est porté sur deux extraits 57. Le premier est tiré du volume Impasse des
deux Palais58 : suite à l’annonce du protectorat, les soldats anglais sont déployés dans les
rues du Caire, dont ceux de la Gamaliyya, aux portes de la maison d'Abd Al Gawwad,
pour faire réprimer la contestation des défenseurs de l'indépendance égyptienne. Yassine,
fils aîné de la famille, malgré sa crainte face aux force armées, est amené à avoir un
échange avec un soldat anglais, qui à sa surprise lui demande une allumette. Aperçu sans
qu'il s'en rende compte par un azhariste, fervent défenseur de l'indépendance, son
échange est interprété comme une trahison. Quelques jours plus tard, alors qu'il se rend à
la mosquée accompagné de son père et de ses deux frères Fahmi et Kamal, le groupe est
violemment pris à partie par le témoin de la scène. Ce n'est que l'intervention de Fahmi,
partisan reconnu des étudiants luttant pour l'indépendance, et d'une de ces
connaissances, que le malentendu est dissipé, de justesse. Cette scène peut être étudiée
avec les élèves pour plusieurs raisons :
57 Les deux extraits peuvent être lus en intégralité en se reportant aux annexes 3 et 4.
58 Pages 555-560, éditions J.-C Latès, traduction de l'arabe par P. Vigreux. Annexe 3.
44
•
premièrement, elle se déroule dans un lieu symbolique de la société orientale, la
mosquée. Celle-ci occupe une fonction religieuse, mais dans le cadre de la lutte
pour l'indépendance devient également le lieu d'expression des conflits politiques
qui traversent le pays ;
•
le caractère violent de la scène permet de rendre compte de l'état de fébrilité dans
lequel se trouve la population égyptienne sous le protectorat anglais. Il suffit d'un
simple geste mal interprété pour que les passions se déchaînent ;
•
la conflictualité exprimée ici sort du cadre habituel opposant l'ensemble des
égyptiens aux forces anglaise. Les tensions décrites par l'extrait étudié révèlent des
conflictualités internes, capables d'éclater à tout moment et n'importe où, et ce
même dans une mosquée, lieu pourtant réputé sacré.
Cet extrait à lui seul ne permet pas de comprendre la situation égyptienne au
lendemain de l'échec des discussions pour l'indépendance. Néanmoins, il peut constituer
une entrée originale pour les élèves, leur permettant d'aborder des notions comme le
colonialisme, le protectorat, la lutte pour l'indépendance, la violence et donc le conflit. Il
est bien-sûr important de contextualiser le document avec eux aux préalable, en précisant
la nature du document (un texte littéraire), l'identité de son auteur (introduction de sa
méthode de travail : Mahfouz comme témoin de son époque et de la société cairote), et
l'intérêt de son usage, l'objectif étant d'exposer les élèves à une incarnation des
événements historiques. Il ne s'agit pas uniquement de les étudier de loin, en se
contentant du point de vue des élites, des dominants et des institutions politiques, mais en
apportant un regard nouveau sur des catégories de la population souvent éclipsées dans
les manuels scolaires : la petite bourgeoisies, la classe moyenne et la classe populaire,
c'est-à-dire les gens du peuple, la grande majorité de la population égyptienne.
Le second extrait est tiré du troisième volume, Le Jardin du Passé59. Le lecteur
rencontre ici la seconde et troisième génération de la famille d'Abd Al Gawwad, car le
passage évoque la situation de Khadija, de ses deux fils Abd el-Monem et Ahmed, et de
sa belle fille Sawsan, épouse du second. La mère de famille se désole de la vie conjugale
de son fils Ahmed, considérant que ce dernier accorde trop de liberté à sa femme Sawsan.
Cette dernière est une femme active, professionnellement et politiquement, tout autant
que son mari. Tous les deux militent pour une modernisation des mœurs, jugeant que
seule la science peut y conduire, contrairement à ce qu'ils considèrent être un
59 Pages 394-400, éditions J.-C Latès, traduction de l'arabe par P. Vigreux.Annexe 4.
45
obscurantisme religieux. Paradoxalement, le frère aîné Abd el-Monen est dans une lutte
permanente pour renforcer la tradition religieuse islamique : une lutte qu'il mène dans la
société en participant aux débats et aux actions des « Frères », mais également contre luimême pour ne pas céder aux influences de la modernisation qu'il juge néfastes. L'extrait
suscite l'intérêt, car comme pour le premier, il s'inscrit parfaitement dans la notion de
conflictualité évoquée dans les enseignements. Cette conflictualité se déclinant à l'échelle
du quartier puis de la mosquée s'inscrit ici dans un cadre encore plus précis, celui de la
famille, où deux frères résidant sous le même toit adoptent des conceptions politiques
diamétralement opposées, et qui pourtant cherchent à aboutir à un objectif commun : la
construction de la nation après la lutte pour l'indépendance. Certains souhaitent fonder
cette identité sur la modernité et la science, d'autres s'attachent aux traditions et à la
religion pour se distinguer de l'influence des anciens colonisateurs. À nouveau, l'extrait
devra être contextualisé avec une présentation rapide de l'oeuvre, de l'auteur, et de la
chronologie dans laquelle l'épisode s’inscrit. Des notions tels que l'islamisation et la
modernisation de la société peuvent ainsi être abordées dans le cadre de la société
égyptienne, mais également à l'échelle du Proche et Moyen-Orient.
Les limites de l'exploitation de l'oeuvre de Mahfouz en vue des
programmes et des recommandations officielles
•
La longueur des extraits :
Les extraits proposés semblent relativement longs par rapport à d'autres
documents mobilisées dans les sujets d'études. Cependant, les réduire davantage pourrait
être préjudiciable, car les extraits perdraient des éléments de contextes fort importants.
Dans le cadre d'un cours d'histoire, leur mobilisation peut-être quelque peu difficile. Peutêtre faudrait-il envisager une étude interdisciplinaire notamment avec les professeurs de
littérature, qui pourraient consacrer une partie du cours à découvrir les textes, à les
analyser sur le plan littéraire et esthétique, ce qui ne peut pas forcément être fait en cours
d'histoire en raison des contraintes horaires.
•
Les préconisations du programmes : l'histoire de l'art déconseillée :
La fiche Eduscol présentant le sous-thème adopte le point de vue qui suit
concernant l'usage des ressources artistiques ou littéraires évoquant la période et la
région étudiées :
46
Ressources pour la classe – fiche éducsol. Histoire – Séries ES et L – Terminale - Thème 3 - Les chemins de
la puissance. Ministère de l’Éducation nationale, de l’Enseignement supérieur et de la recherche. Consultable
sur www.eduscol.education.fr
Dans ce cas, l'usage spécifique d'une œuvre littéraire comme la « Trilogie » ne
semble pas une piste privilégiée pour étudier la question du Proche et Moyen-Orient.
Cependant, dans le même temps, les professeurs sont invités à ne pas « ignorer que la
région ne se réduit pas à des conflits et considérer leurs civilisations comme vouées à se
faire la guerre ». Ne peut-on donc pas dépasser l'idée que l'usage d'une œuvre d'art,
littéraire dans ce cas précis, est nécessairement partisan ? Le point de vu exprimé par la
fiche Eduscol est compréhensible car l'enseignement de cette partie du programme est
souvent l'occasion d'un déchaînement des passions de la part de certains élèves, qui
peuvent avoir des préjugés difficiles à déconstruire sur des sujets aussi sensibles. Mais
chercher à exclure des documents qui semblent partisans ou militants n'est pas forcément
une solution : premièrement parce que ces documents sont facilements accessibles par les
élèves sur les multiples plateformes existant aujourd’hui ; deuxièmement parce que la
confrontation à ce type de documents en classe permet justement d'en déconstruire le
discours de manière raisonnée avec les élèves, en leur donnant les clefs pour une vision
critique du monde et des ressources dont ils font usage. Dans le cadre de la « Trilogie », le
discours adopté par Mahfouz ne peut être considéré comme partisan que parce qu'il
retranscrit les états psychologiques des personnages. Et comme indiqué précédemment
dans les possibilités d'exploitation, la contextualisation de l'oeuvre permettrait justement
d'aller au-delà d'un discours partisan.
47
Conclusion
Publiée de 1956 à 1957, la « Trilogie du Caire » est un ensemble romanesque
appartenant à la littérature réaliste. Son auteur, Naguib Mahfouz, décrit à travers les trois
volumes qui la composent (Impasse des deux Palais, Le Palais du Désir, Le Jardin du
Passé) la société égyptienne du Caire à travers une multitudes de personnages et de
lieux. Ayant lui-même vécu au sein des quartiers populaires du Caire, Mahfouz est un
témoin privilégié du monde qu'il expose dans ces romans. La justesse de l'analyse
psychologique des personnages et la précision géographique des lieux offrent une fresque
riche et complexe des classes populaires et urbaines égyptiennes de l'entre-deux-guerres.
La « Trilogie » par cet aspect, peut servir comme source pour l'historien : le discours de
Mahfouz est fictif, cependant les événements servant de toile de fond à ses intrigues
s'inspirent de faits historiques qui ont marqué l’Égypte des années 1920 aux années 1940.
Les sentiments et les émotions exprimés par les personnages sont issus d'une réalité dont
Mahfouz a été témoin dès son enfance, au sein de sa famille et dans son entourage dans
la ville du Caire : ils expriment donc une réalité des mentalités de l'époque. Réalité qui est
celle de l’Égypte mais également celle de toute la région du Proche et Moyen-Orient. Des
enjeux comme la lutte pour l’indépendance, la monté de l'islamisme, la recherche de la
modernité, l'affirmation des pouvoirs militaires, la condition féminine sont centraux tout au
long de l'entre-deux-guerres, et même au-delà, pour tous les pays de la région.
Les discours historiques, du moins en Occident, se sont toujours concentrés sur la
notion de la conflictualité qui marque le Proche et Moyen-Orient, et plus particulièrement
sur une conflictualité militaire, opposant les puissances coloniales aux défenseurs des
luttes pour l'indépendance. Les acteurs les plus souvent évoqués font partie d'une élite
politique et sociale, qui ont certes marqué l'histoire de l’Égypte et de la région, mais qui
éclipsent la majorité de la populations constituée par les classe moyennes et populaires.
La « Trilogie » offre une vision incarnée et sensible de cette période de l'entre-deuxguerres, et donne à voir ce qui relève de l'invisible dans les manuels d'histoire, c'est-à-dire
le quotidien des petites gens, l'impact des grands événements historiques sur leur
quotidien, leur implication individuelle dans les grandes luttes de l'époque. Le travail
littéraire de Mahfouz propose une vision complexe et nuancée de cette société
égyptienne, une vision qui manque parfois dans les enseignements du second degré
lorsqu'il s'agit d'aborder cette région du monde à cette époque. Des exploitations
pédagogiques à partir de l'oeuvre de Mahfouz semblent tout à fait possibles, à partir du
48
moment que les extraits littéraires mobilisés sont contextualisés et analysés entant que
discours fictif, avec lequel les élèves sont invité à prendre leurs distances en adoptant un
point de vue critique vis-à-vis des documents proposés.
49
Annexes
Annexe 1 : manuel Hatier
Les documents présentés ici sont extrait du manuel Hatier. L’Égypte est traitée,
mais dans un ensemble géostratégique précis : le Proche et Moyen-Orient. Cependant,
des documents qui traitent spécifiquement de la question égyptienne sont présents, avec
notamment une double page spécialement consacrée à l'action de Nasser, mais qui
n'entre pas dans le cadre chronologique de l'entre-deux-guerres.
50
Une double page (204-205) ouvre le sous-thème et permet de le contextualiser grâce à
des cartes et une frise chronologique.
51
Des documents plus spécifiquement consacrés à l’Égypte permettent d'aborder la notion
de conflictualité autour de la question du colonialisme et des enjeux géostratégiques liés
au pays (l'influence britannique et la lutté pour l'indépendance, la crise du canal de Suez).
À nouveau, ces documents ne concernent pas spécifiquement la période de l'entre-deuxguerres.
52
Annexe 2 : manuel Nathan
Ces documents mobilisés dans l'enseignement du sous-thème dédié aux
conflictualités dans le Proche et Moyen-Orient sont extraits du manuel Nathan. Ils
évoquent tous de manière plus ou moins précise la situation en Égypte dans la période de
l'entre-deux-guerres et donnent un aperçu des mises en œuvres construites par les
éditeurs.
Frise chronologique du manuel Nathan, page 191.
Une double page (pages 192-193) présente des documents qui permettent aux élèves de
se repérer dans la période étudiée et replacer les événement et les notions majeures dans
leur contexte.
53
L'ensemble des documents ne traite pas de l’Égypte de manière spécifique, mais l'intègre
dans un ensemble géographique et géostratégique, le Proche et le Moyen-Orient.
54
Un des rares documents traitant directement de la situation égyptienne et faisant
référence à la période de l'entre-deux-guerres avec le personnage d'Al Banna et
l'association des Frères musulmans.
55
Annexe 3 : exploitation pédagogique 1
Premiers extrait mobilisé pour une mise en œuvre en classe de Terminale, Impasse des
deux Palais, pages 555-560, éditions J.-C Latès, traduction de l'arabe par P. Vigreux.
« Les récitations à mi-voix coururent sur les lèvres dans un ample murmure emplissant l’air jusqu’à ce que
l’imam donne la permission d’aller en paix. À cet instant l’ordre se dispersa, la liberté reprit ses droits et
chacun se leva pour suivre son but. Certains se dirigèrent vers le tombeau pour la visite rituelle, d’autres
gagnèrent les portes vers la sortie, tandis que d’autres encore s’attardaient pour discuter ou attendre que la
foule se soit ajourée. Les courants se mêlèrent en tous sens. L’heure bénie que Kamal avait poursuivie de ses
vœux était venue…, celle de la visite au tombeau, du baiser sur le mur, de la récitation de la Fâtiha pour luimême et sa mère, comme il le lui avait promis. Il commença à avancer lentement dans les pas de son père
quand soudain un jeune azhariste surgit brusquement de la foule et leur barra la route d’un geste violent qui
attira les regards. Puis il déploya ses bras pour écarter les gens et commença à marcher à reculons devant eux
en dévisageant Yassine d’un regard perçant et suspicieux, avec un visage rechigné dont la face sombre
annonçait une colère manifeste. Ahmed Abd el-Gawwad fut étonné à sa vue et se mit à promener son regard
de Yassine à lui, tandis que Yassine, qui semblait plus étonné encore, laissait errer le sien de l’azhariste à son
père en s’interrogeant. Puis des gens furent alertés par la scène et y fixèrent leur attention en haleine, surpris
et intrigués. À cet instant, Ahmed Abd Al Gawwad ne put s’empêcher de s’adresser au jeune homme en lui
demandant, froissé :
— Qu’as-tu, l’ami, à nous regarder comme ça ?
L’azhariste désigna Yassine du doigt et cria d’une voix de tonnerre :
— Espion !
Le mot transperça la poitrine de la famille comme une balle de revolver. Ils furent pris de vertige,
écarquillèrent les yeux et restèrent figés à leurs places tandis que l’accusation commençait à courir sur les
langues qui la répétaient dans l’affolement et la fureur. Les gens s’étaient massés autour d’eux, tandis que
s’entrelaçaient leurs bras avec méfiance et précaution afin de les emprisonner dans un cercle n’offrant aucun
point de fuite. Ahmed Abd el-Gawwad fut le premier à reprendre ses esprits et, bien que ne comprenant rien
à ce qui se passait autour de lui, il prit conscience du danger qu’il y avait à garder le silence et à rester sur la
réserve. Il interpella le jeune homme d’une voix courroucée :
— Qu’est-ce que vous dites, monsieur le cheikh ? De quel espion voulez-vous parler ?
Mais le jeune homme ne prêtait aucune attention à M. Ahmed et il désigna à nouveau Yassine en criant :
— Attention, messieurs, ce jeune traître est un espion à la solde des Anglais qui s’est infiltré parmi nous pour
collecter des bruits et les rapporter à ses maîtres criminels !
La colère s’empara d’Ahmed Abd el-Gawwad. Il s’approcha d’un pas du jeune homme en lui criant à la face,
hors de lui :
— Tu parles à tort et à travers… Ou bien tu es un criminel, ou bien tu es fou ! Ce garçon est mon fils. Ce
n’est ni un traître ni un espion. Nous sommes tous patriotes et ce quartier ne connaît que nous ! L’azhariste
haussa les épaules avec mépris et lança de sa voix déclamatoire :
— L’infâme espion anglais ! Je l’ai vu, de mes yeux vu, des dizaines de fois en train de faire des confidences
aux Anglais près de Bayn al-Qasrayn. J’ai des témoins… Il n’osera pas me contredire… Je le mets au défi…
À mort, le traître !
Un bourdonnement de colère résonna aux quatre coins de la mosquée. Des clameurs s’élevèrent çà et là au
cri de « Mort à l’espion ! », tandis que d’autres s’exclamaient : « Châtions le traître ! » Dans les yeux des
gens tout proches se lisait une expression menaçante, à l’affût d’un geste, d’un signal, pour fondre sur la
proie et dont peut-être ne retardaient l’assaut que l’allure impressionnante d’Ahmed Abd el-Gawwad qui se
tenait debout, serré contre son fils, comme pour recevoir à sa place le mal qui le menaçait, ainsi que les
larmes de Kamal qui éclata en sanglots. Quant à Yassine, il s’était placé entre son père et Fahmi, le trouble et
la peur lui ayant fait perdre ses esprits. « Le caractère et les options d’Abd el-Monem s’étaient concrétisés. Il se confirmait comme un fonctionnaire
compétent, un « Frère » actif et s’était vu confier la direction de la section d’Al-Gamaliyya dont il était
devenu également conseiller juridique. Collaborant à la revue de l’Association, il donnait parfois des
sermons dans les mosquées de quartier et avait transformé son appartement en club pour les Frères où l’on
veillait chaque nuit sous le patronage du cheikh Ali al-Menoufi. Il était plein d’ardeur et vaillamment disposé
à mettre toutes ses ressources de persévérance, d’argent et d’intelligence au service du « message » qu’il
voulait croire de tout son cœur – selon la définition du Guide suprême – à la fois message salafiste, pratique
sunnite, vérité mystique, corpus politique, communauté athlétique, ligue scientifique et culturelle, société
économique et pensée sociale. Le cheikh Ali al-Menoufi avait l’habitude de dire :
— Le dogme et les enseignements de l’Islam sont un système total qui règle les affaires de la société
humaine dans le monde et l’au-delà ! Ceux qui croient que ces enseignements intéressent exclusivement le
côté spirituel ou le culte se trompent ! L’Islam est à la fois dogme et adoration ; patrie et nation ; religion et
état ; spiritualité, Livre et épée ! Un jeune homme disait parfois, au sein de l’assemblée :
— Telle est bien notre religion ! Mais nous sommes inertes et ne faisons rien, alors que l’impiété nous
gouverne par ses lois, ses institutions et ses hommes !
— Il nous faut absolument sermonner et prêcher ! répondait le cheikh Ali, constituer des troupes
combattantes ; après viendra l’étape de l’action !
— Et jusqu’à quand allons-nous attendre ?
— Attendons que la guerre ait pris fin ! La voie est mûre pour notre message. Les gens ont retiré leur
confiance aux partis. Et quand la voix du Guide retentira au bon moment, les Frères accourront, cuirassés
chacun de son Coran et de ses armes ! Abd el-Monem appuyait de sa voix puissante et sonore :
— Préparons-nous à une longue Guerre Sainte ! Notre message ne s’adresse pas à la seule Égypte, mais à
tous les musulmans sur terre, et le succès ne lui sera acquis que lorsque l’Égypte et les nations islamiques se
seront rassemblées sur la base des principes coraniques. Et lorsqu’il aura imprégné sa conscience de cette nouvelle foi, et que le peuple tout entier sera un bloc uni de
volonté, alors ni les lois scélérates ni les canons ne pourront nous arrêter !
— Nous en sommes tous convaincus, mais rallier les esprits cultivés signifie s’assurer la mainmise sur la
fraction du peuple désignée à l’encadrement et au pouvoir !
Là, Ahmed déclara :
— Monsieur le professeur, il y a une remarque que je voudrais formuler : je sais d’expérience qu’il n’est
déjà pas facile de convaincre les intellectuels que la religion est mythe et les histoires de surnaturel
intoxication et supercherie ! Mais il est extrêmement dangereux de tenir ce langage avec le peuple ! À telle
enseigne que le cheval de bataille de nos adversaires est de taxer notre mouvement d’athéisme et d’impiété !
58
— Notre première mission est de combattre l’esprit d’autosatisfaction, d’inertie et de démission ! Pour ce qui
est de la religion, nous n’en viendrons à bout que dans le cadre d’un régime libéral, lequel ne s’obtiendra que
par un coup d’État. D’une manière générale, la pauvreté prend le pas sur la foi et il est toujours sage de parler
aux gens à leur niveau ! Le professeur regarda Sawsan en souriant et lui dit :
— Toi qui avais foi en l’action, en serais-tu arrivée à te contenter de la discussion dans le cocon du mariage ?
Elle comprit qu’il la taquinait et ne parlait pas sérieusement. Elle répondit néanmoins avec sérieux :
— Mon mari va instruire les ouvriers dans des taudis à l’autre bout de la ville et moi je distribue des tracts à
tour de bras !
— Le défaut de notre mouvement, reprit Ahmed chagriné, est d’attirer à lui beaucoup d’opportunistes
dépourvus de sincérité, dont certains travaillent pour l’argent, d’autres pour des intérêts de parti !
— Je le sais parfaitement ! répliqua le professeur Adli Karim en hochant sa grosse tête avec une indifférence
manifeste. Le Palais du désir, Le Livre de Poche, 1990, 600 p.
Le Jardin du passé, Le Livre de Poche, 1991, 442 p.
Ouvrages et dictionnaires généraux
Béatrice DIDIER, Dictionnaire universel des littératures. Vol. 2 : G-O, Presses
universitaires de France, 1994, p. 2181-2184.
François DOSSE, Historiographies - Concepts et débats Volume 1, avec la
participation de Patrick Garcia, Christian Delacroix , Nicolas Offenstadt, éditions Gallimard,
2010.
Pascal MOUGIN, Karen HADDAD-WOTLING, Dictionnaire mondial de la Littérature,
Larousse, 2012, p. 257.
Encyclopédie en ligne Les Clefs du Moyen-Orient.
Dictionnaire en ligne Centre National de Ressources Textuelles et Lexicales (CNRTL).
Ouvrages et articles spécialisés
Marc BLOCH, Apologie pour l’histoire ou Métier d’historien, éditions Armand Colin,
Paris, 1949.
Jean-François DAGUZAN, « Lettres arabes. La littérature arabe vue d'occident ; les États
du Maghreb face à l'islamisme », Maghreb-Machrek, numéro 191, , Choiseul Éditions,
2007.
Renaud DULONG, « Le témoignage historique : document ou monument ? » dans la
revue Hypothèses, 2000/1, pages 115 à 119.
Renaud DULONG, « Qu’est ce qu’un témoin historique ? », sur le site www.voxpoetica.org.
Richard JACQUEMOND, « Traductions croisées Égypte-France : stratégies de traduction
et échange culturel inégal », Égypte/Monde arabe, Première série, 15-16 | 1993, mis en
ligne le 08 juillet 2008. Lien : http://journals.openedition.org/ema/1109
60
Judith LYON-CAEN et Dinah RIBARD, L’historien et la littérature, édition La Découverte,
2010.
André MIQUEL, La littérature arabe, Presses Universitaires de France - PUF, 2007.
Pierre Nora (dir.), Essais d'Ego-Histoire, avec la participation de Maurice Agulhon, Pierre
Chaunu, Georges Duby, Raoul Girardet, Jacques Le Goff, Michelle Perrot, René Rémond,
novembre 1987.
Heidi TOELLE, Katia ZAKHARIA, À la découverte de la littérature arabe : du VIe siècle
à nos jours, Flammarion, 2014.
Sur Naguib Mahfouz :
Gamal AL GHITANI, Mahfouz Par Mahfouz, Entretiens avec Gamal al-Ghitani,
Sindbad-Actes Sud, 1991
Férial GOKELAERE-NAZIR, Naguib Mahfouz et la société du Caire (Romans et
nouvelles, 1938-1980), Publisud, 2000.
Hanni Samir GHANI, « La Trilogie du Caire de Naguib Mahfouz, l’histoire de l’Égypte à
l’aube du XXe siècle », sur le site www.arageek.com, publié le 23 avril 2014 et
dernièrement édité le 23 décembre 2017. Traduction personnelle de l’arabe au français.
Anders HALLENGREN, "Naguib Mahfouz - The Son of Two Civilizations". Nobelprize.org,
16 octobre 2013.
Lien :https://www.nobelprize.org/nobel_prizes/literature/laureates/1988/mahfouz-article
Yéhia HASSANEIN, « Mahfouz : la vérité voilée du mythe”, revue Présence africaine,
Éditions Présence Africaine, 1999.
Denys JOHNSON-DAVIES, “Naguib Mahfouz. Egyptian novelist and first Arab Nobel
laureate who sprang to world attention with his depictions of life in Cairo's old city”, The
Guardian, 30 août 2016.
Lien : https://www.theguardian.com/books/2006/aug/30/culture.obituaries
Sur la société égyptienne et orientale :
Georges CORM, Pensée et politique dans le monde arabe. Contextes historiques et
problématiques, XIXe-XXIe siècle, La Découverte, 2015, p. 45-46.
Leyla DAKHLI, Le Moyen-orient. Fin XIXe-XXe siècles, Points, 2016.
Layla DAKHLI, Histoire du Proche-Orient contemporain, éditions La Découverte, mai
2015.
Anne-Claire DE GAYFFIER-BONNEVILLE, Histoire de l'Égypte moderne. L'éveil d'une
nation (XIXe-XXIe), Flammarion, 2016.
Didier MONCIAUD, « Polémique autour de Salama Mûsa : enjeux de nationalité,
nationalisme et projet de Nahda », Égypte/Monde arabe, Première série, 21, 1995.
61
« Les contours d’une théorie islamique de la séparation de la religion et de l’État », Rives
nord-méditerranéennes, 19, 2004, p. 97-106.
Autres oeuvres de Naguib Mahfouz
La Belle du Caire, paru en 1945, Gallimard, 2001, 283 p. Traduit de l'arabe par Philippe
VIGREUX.
Passage des miracles, paru en 1947, Actes Sud, 2000, 350 p. Traduit de l’arabe par
Antoine COTTIN.
Vienne la nuit, paru en 1949, Gallimard, 1998, 464 p. Traduit de l’arabe par Nada YAFI.
Le Cortège des vivants : Khan al-Khalili, paru en 1945, Actes Sud, 2010, 358 p. Traduit
de l’arabe par Faïza LADKANY et Gilles LADKANY.
Émissions
Farouk MARDAM-BEY, Léda MANSOUR, Rania SAMARA. Entrevue radiophonique avec
Matthieu GARRIGOU-LAGRANGE. La Compagnie Des Auteurs, “Naguib Mahfouz”, 25
et 26 avril 2018. Lien : https://www.franceculture.fr/emissions/series/naguib-mahfouz
Entretien avec Naguib Mahfouz, chaîne anglaise Channel 4,
https://www.youtube.com/watch?time_continue=16&v=ChQMEWWhpMM
1989.
Lien
:
Documentaire réalisé par The American Press University in Cairo Press, 2011. Lien :
https://www.youtube.com/watch?v=bHpFIk2KN3I
Farouk
Shousha,Umsiya
Thaqafiya
(Soirée
https://www.youtube.com/watch?v=cawk69x9awM
culturelle),
1988.
Lien
:
Programmes, textes officiels et ressources scolaires :
Ressources pour la classe – fiches éducsol. Histoire – Séries ES et L – Terminale - Thème
3 - Les chemins de la puissance. Ministère de l’Éducation nationale, de l’Enseignement
supérieur et de la recherche. Accessible sur www.eduscol.education.fr
Manuel d'Histoire pour les classes de Terminale, L-ES-S des éditions Hatier, sous la
direction de Guillaume Bourel et Marielle Chevallier, publié en 2014.
Manuel d'Histoire pour les classes de Terminale, L-ES-S de la collection G. Le Quintrec,
publié par les éditions Nathan, mis à jour en 2017.
62.
| 50,606
|
25a2f1f52d055093672aaa608322a3a1_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,009
|
Essai sur le « Faire une ambiance » en architecture. faire une ambiance creating an atmosphere, Sep 2008, Grenoble, France. ⟨hal-00380262⟩
|
None
|
French
|
Spoken
| 2,568
| 4,251
|
Essai sur le “ Faire une ambiance ” en architecture
HAL is a multi-disciplinary for the and dissemination of scientific research documents, whether they are published or . The documents may come from teaching and research institutions in France or abroad, or public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publi ou non, éma établissements d’enseignement et français ou
sur le
Ouard Thomas : Architecte DPLG – Doctorant Laboratoire C UMR 1563 Ecole Nationale Supérieure d'Architecture de Nantes
1.1. Présentation de l’auteur. - Thomas Ouard est architecte DPLG et doctorant au laboratoire CERMA à Nantes. Ses travaux de recherche portent en particulier sur l'étude des ambiances en milieu carcéral. Et en général visent à interroger la place de l'architecture dans la qualification individuelle de l'ambiance. – contact : [email protected]
1.2. Titre de l’intervention. Essai
sur
le « Faire une ambiance » en architecture
1.3. Résumé de l’intervention. Est-il juste de dire que l'architecte est à même de faire une ambiance? N'est-ce pas, dans une certaine mesure, un abus de langage? Quelles acceptions donner à l'expression « faire une ambiance »? Pour développer ce questionnement, objet de cet article, nous devons confronter dans une même réflexion la notion théorique d ambiance aux pratiques de conception en architecture. Mots clés : Faire une ambiance, Conception, Phénoménologie, Pratique architecturale 1.4. Traduction anglaise du résumé. Is it right to say that architect can create an atmosphere? Isn't a misuse of language? Obviously, the question is what « creating an atmosphere » means? To answer this issue, we have to develop on the same thought the theoretical notion of atmosphere with the architectural design practice. 1-5 Essai sur le « Faire une ambiance » en architecture
Le développement des savoirs et des théories sur l'ambiance et les ambiances a entraîné une multiplication de discours parfois divergents. Et, il n'est pas difficile de remarquer qu'un ensemble de mots courants dans la pratique de l'architecture, tel que concevoir, faire, déterminer et parfois même maîtriser, se sont associés à la notion d'ambiance. Ainsi, au sein de la formation d'architecte, l'ambiance est une composante du champ disciplinaire : « Construction, ingénierie et maîtrise des ambiances ». L'objet enseigné est, ici, celui des phénomènes physiques environnementaux (éclairage, thermique, acoustique...). Parfois, l'acception du terme ambiance fera référence à la dimension sensible, au vécu de l'espace. C'est d'ailleurs cette dernière qui est proposée dans le cadre de ce colloque. Cependant, la multiplicité des sens, employés au sein d'une même communauté, induit une ambiguïté qui peux faire perdre son latin aux plus fervents membres de la chapelle scientifique « ambiance ». Il n'est alors pas surprenant que cette pluralité de sens amène parfois des associations sémantiques étranges ou originales. Cet article se propose de prendre au mot le titre du colloque et de mener une analyse sémantique et théorique sur le « faire une ambiance » dans le cadre de la pratique architecturale. Deconstruction du « faire une ambiance »
1- Faire : Selon Alain Ray [Ray, 2003] « faire » provient du latin facere qui remonte à la racine indo-européenne odhē- signifiant: poser pour durer et a donné, entre autre, fonder et créer. « Faire » signifie, dans son acception la plus générale, la notion de réaliser hors de soi. Cela sous-entend donc la formalisation, la mise en présence, d'une chose dans le monde social et inter-individuel. Ceci marque une nette différence avec l'idée de concevoir, de former un concept, qui est un processus mental et donc par essence personnelle [Prost, 1993]. 2- Une : L'adjectif « une » est issu du latin unus signifiant : seul, unique. On trouve dans la famille d'unus des mots en rapport avec une réalité unique tel que unique, unicité, unité [Ray, 2003]. Les contraires de « un, une » sont des mots tel que multiple, divers, varié. L'adjectif qualificatif « une » vient donc marquer le caractère fini et distinct du terme qu'il précède. 3- Ambiance : La notion du terme ambiance mise en avant lors de ce colloque est sans conteste celle de l'expérience sensible de l'espace1. Les écrits de Bachelard à Norberg-Schulz, en passant par ceux de Merleau Ponty, composent les fondamentaux de la construction théorique de l'ambiance. Fermement ancrée dans une phénoménologie de l'espace, l'ambiance plonge ses racines dans le champ fertile du vécu. La suite du propos s'axera essentiellement sur cet aspect de l'ambiance. Phénoménologiquement, le terme vécu (Erlebnis) définit l'expérience individuelle du monde dans son épaisseur spatiale et temporelle. Précisons que le vécu ne signifie pas uniquement la dimension noématique de l'expérience mais surtout les actes de conscience eux-mêmes. Autrement dit, ce qui est vécu fait certes référence à mon expérience du monde mais se situe toujours dans la contemporanéité du Moi. Lorsque je pense à une rencontre passée, cette pensée se fait inévitablement dans l'Ici-Maintenant. L'ambiance est un phénomène au sens plein de la phénoménologie, autrement dit : la conscience d'une expérience sensible. Elle ne se définit donc pas comme un objet ou un substitut d'objet, mais comme une réalité spécifique ; Elle est immanente à l'individu. Pour autant, on ne peut dire que l'ambiance est un solipsisme. A ce titre, les propos des phénoménologues, tel que Merleau-Ponty, sont particulièrement intéressants dans l'analyse du mot ambiance. Il nous dit qu'exister c'est « être au monde » et que ce monde a une « atmosphère sociale » comme il a une « saveur mortelle » [Merleau-Ponty, 2003]. Aussi, il y a dans l'expérience du monde une situation commune des consciences. Je ne suis plus implement dans un monde qui se constitue uniquement pour Moi, mais aussi dans un monde 1 Le terme ambiance utilisé dans cet article fait aussi référence à cette définition. 2-5 Essai sur le « Faire une ambiance » en architecture que je partage avec un autre. Et cet autre est le lieu d'un certain point de vue, d'un certain traitement des choses. Aussi peut-on envisager que l'ambiance se différencierait du vécu de l'espace en cela qu'elle ne vise pas le caractère personnel de l'expérience sensible mais ses valeurs communes? Certaines recherches théoriques [Augoyard, 1998] partant de ce point de départ phénoménologique ont essayé de définir quels étaient les facteurs déterminant une ambiance. Disons, pour le formuler synthétiquement, que l'ambiance est relative à un Je compris dans ce qui fonde le Moi (représentation, culture, norme sociale, état psychologique...). Mais c'est un Je situé spatialement: Ici. L'ambiance est inévitablement liée aux caractéristiques de cet Ici (présence des choses et d'autrui, situation géographique, climat...). De même que c'est un Je situé temporellement : Maintenant. L'apport de la notion du temps appelle évidemment la dynamique du Moi et de l'Ici, mais doit aussi nous amener à considérer les phénomènes strictement temporels (l'attente, l'activité, le désir, l'espoir...) [Minkowski, 1995], la situation de l'individu par rapport au devenir. 4- « Faire une ambiance » : D'un point de vue sémantique « faire une ambiance » induit donc une idée de causalité. En effet, le « faire une » précise d'une part une création dans le monde inter-individuel et d'autre part que celle-ci est unitaire. Placé dans un contexte architectural, « faire une ambiance » veut dire que l'architecte à travers sa production, sur les formes et les matières, peut entrainer une expérience sensible déterminée préalablement lors de la conception. Cependant deux acceptions sont encore possibles, essayons de les analyser plus en détail. Ambiance et architecture
1- Du singulier au pluriel : La première acception à « faire une ambiance » est de considérer l'ambiance comme une expérience exclusivement individuelle et donc solyptique. Autrement dit, à chaque espace il y aurait autant d'ambiances différentes qu'il y a d'usagers. L'architecte pourrait donc tout à fait créer un dispositif destiné à un individu qui expérimenterait l'ambiance tel que l'architecte l'a pensé. L'exemple que l'on pourrait donner sont les commandes du prince, les architectures de gala, ou pour reprendre les mots d'Augoyard, « les architectures par lesquelles le prince veut éblouir les sens » [Augoyard, 2007]. L'architecte ferait donc « une ambiance » d'un point de vue individuel, mais son action induirait « des ambiances » dès lors que l'on considère l'ensemble des usagers du bâtiment, chacun ressentant une ambiance différente. Cependant, nous arrivons à une expression vide de sens puisque l'architecte penserait l'ambiance de son point de vue et non plus de celle des usagers. L'architecte ferait une ambiance qui n'existerait que pour lui, sans considération pour autrui et qui ils sont. Néanmoins, comme expliqué précédemment, l'ambiance ne doit pas être considérée dans sa dimension individuelle, mais au contraire comme une expérience inter-individuelle. 2- L'infaisable ambiance : La deuxième acception est de considérer que l'ambiance possède une dimension collective, alors le « faire une ambiance » sous-entend qu'un individu ou un groupe d'individu, par une action pensée et maîtrisée dans le monde inter-individuel, est à même de créer une ambiance déterminée, à l'image d'un cinéaste qui fait ressentir à un ensemble de spectateurs une atmosphère particulière dans un film. Cependant, si l'on considère la pratique architecturale d'édification d'un bâtiment, on peut dire, selon l'expression consacrée, que l'architecte conçoit à partir d'un programme pour un bâtiment donné. Chaque projet est une réponse à une demande inscrite dans un contexte normatif d'ordre culturel, social, programmatique, environnemental, juridique... L'enjeu est donc la recherche du meilleur compromis entre l'art appliqué qu'est l'architecture, la 3-5 Essai sur le « Faire une ambiance » en architecture technique, la réglementation et la culture sociale. Sans compter, le respect d'une législation française pour le moins draconienne qui ne laisse à l'architecte qu'une marge de manœuvre réduite dans le choix des formes et des matières [Philippe Trétiack, 2001]. L'ensemble de ces contraintes sont déjà une limite à ce que peut faire l'architecte comme architecture et donc, qui plus est, comme ambiance. L'architecte ne décide pas des usagers, ni du programme et encore moins de la sensibilité de ceux qui vont utiliser son œuvre. Affirmer le contraire, reviendrait à dire que l'architecte serait à même de créer in-extenso une ambiance spécifique en tout lieu. Il pourrait par exemple créer une ambiance chaleureuse, paisible, relaxante au sein d'un édifice pénitentiaire... Est-ce possible? Assurément non, cet édifice aux usages et usagers spécifiques est un lieu de contrainte et de promiscuité non choisies. C'est un espace d'enfermement, dégradant le rapport du Moi au Monde [Ouard, 2008]. L'ambiance en prison est, avant toute chose, liée à l'institution elle-même et aux rapports sociaux, conflictuels, qui s'y établissent : c'est une prison. Cette démonstration, pour exemplaire dans le cadre des édifices pénitentiaires, ne saurait s'arrêter à l'enceinte de la prison. N'en est-il pas de même pour un hôpital, une école, un centre commercial? Le fait est que l'architecte ne peut concevoir une ambiance, au sens de la causalité, « d'être à l'initiative de ». Ce que Grégoire Chelkoff exprime avec justesse en écrivant que « rien ne nous permet d'établir des lois de cause à effet... » [Chelkoff, 2004, p.67]. 3- Et si... l'architecte ne faisait rien : L'erreur du « faire une ambiance », peu importe l'acception, est de considérer que l'architecte peut entraîner un ou plusieurs individus à vivre une expérience spécifique et ce sans considération de qui ils sont. Disons-le c'est une théorie mécaniste qui repose sur la seule idée que tout individu réagit identiquement à un ensemble de stimulations sensorielles. Le problème semble venir de l'association du terme « faire », expression d'une action qui vise la création d'une chose, au terme « ambiance » qui est lui même une création individuelle. On nous dira peut-être que « faire une ambiance » ne sous-entend pas nécessairement que seul l'architecte fait. On pourrait, en paraphrasant Jacques Salomé2, dire que l'ambiance est faite à deux, par l'architecte qui modèle l'espace et l'usager qui le vit. Pour autant, l'évidence est bien que derrière le « faire une ambiance », c'est la toute puissance de l'acte d'un concepteur qui est entendue. Il ne nécessitera que de lire le texte introductif à ce colloque pour l'observer.
4- Pré-existence de l'ambiance – L'ambiance en sommeil :
Arrivée
dans
cette impasse, un échappatoire semble néanmoins se dessiner. Toute architecture contient, par nature, de multiples usagers, des usages spécifiques, une situation géographique particuliére... Autant d'éléments qui seront parties prenantes dans l'ambiance que chacun expérimentera. Ces éléments n'étant pas du ressort de l'architecte, on peut émettre l'hypothèse qu'à tout espace en devenir, il pré-existe un champ restreint d'ambiances à venir. L'ambiance est contextuelle et l'architecte ne peut que s'insérer dans ce contexte en devenir, l'architecture en devient alors la cristallisation. Aussi, si l'architecte ne peut être considéré comme un « faiseur d'ambiance », il est celui qui, par son intervention sur le cadre physique, va modeler l'ambiance pré-existante d'un lieu. Ce « simple » constat amène, de fait, une autre définition du rôle de l'architecte vis-à-vis de l'ambiance d'un lieu. Elle n'est plus simplement la plus-value « luxueuse » donnée à un édifice, mais un véritable enjeu dans sa conception. Car, faute d'une pensée sur l'ambiance pré-existante, celle-ci pourrait s'avérer contre-productive à la qualité architecturale, voire à l'émancipation de l'individu.
Conclusion 2 « Un livre a toujours deux auteurs : celui qui l'écrit et celui qui le lit. » [Salomé, Galland, 2003] 4-5
Essai sur le « Faire une ambiance » en architecture
Cet article se pose modestement comme un essai sur le « faire une ambiance » en architecture, point de départ d'une réflexion que nous soumettons au lecteur. Il se veut ouvert à la critique et au contre-exemple. Mais, il met néanmoins en avant le risque qui couve derrière l'idée du « faire une ambiance ». Celui de renvoyer l'usager à un être subissant, là ou la réflexion sur l'ambiance devrai au contraire le placer au centre de la réflexion. Et, chercher comment l'architecte peut non pas faire mais impliquer l'usager dans la construction de l'ambiance. L'autre perspective qu'ouvre cette article vise le lien entre la recherche et la pratique architecturale. En effet, si on admet qu'une ambiance pré-existe en tout lieu et que l'architecte a pour tâche de l'intégrer dans sa démarche de conception, comme il intègre la question des usages, cela nécessite de développer des savoirs, des connaissances sur l'ambiance préexistante dans différents types d'architectures et notamment ceux pour lesquelles les enjeux sont les plus importants et les possibilités les plus réduites
. Bibliographie Augoyard J.F., 2007, A comme Ambiances, les cahiers de la recherche architecturale et urbaine N° 20/21, pp. 33-37. Augoyard J.F., 1998, Eléments pour une théorie des ambiances architecturales et urbaines, les cahiers de la recherche architecturale N° 42/43, pp. 13-23. Chelkoff G., 2004, Percevoir et concevoir l'architecture: l'hypothèse des formants, Ambiances en débats, Bernin : A la croisée, pp. 55-69. Merleau-Ponty M., 2003, Phénoménologie de la perception, Paris : Gallimard, 531p. 1ère édition 1945. Minkowski E., 1995, Le temps vécu, Paris : Puf, 409p. 1ère édition 1933. Ouard T., 2008, Constitution d'un espace d'enfermement - Essai sur une phénoménologie de l'enfermement, Cahier ADES Acte du colloque Espaces d'enfermement, espaces clos, Bordeaux, pp. 21-31. Prost R., 1993, La conception architecturale confrontée à la turbulence de la pensée contemporaine, les cahiers de la recherche architecturale N° 34, pp. 11-27. Ray A., 2003, Le petit robert - dictionnaire de la langue française, Paris, Dictionnaires le robert, 2949p. Salomé J., Galland S., 2003, Si
m'écoutais... je m'entendrais, Montréal : Editions de l'Homme, 347p. Trétiack P., 2001, Faut-il pendre les architectes, Paris : Seuil, 191p. 5-5.
| 32,443
|
32/tel.archives-ouvertes.fr-tel-01952928-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,536
| 12,564
|
32 Figure I-19 : Diagramme de phase du système KF-AlF3 (calcul FactSage d'après [5]).
Cependant
,
existe encore un débat à propos de la fusion du composé KAlF4 congruente [68], [72] ou incongruente, Figure I-19. Cette incertitude serait principalement liée aux difficultés de mesure de
l'échantillon dans cette zone de composition. Selon les auteurs, les écarts
de
température de fusion peuvent
att
eindre
jusqu'à
50
°
C, Table
au
I-2.
% mol AlF3 Température de fusion °C Holm [71] Phillips [68] Chen [72] Pushin [69] Jenssen [70] 7 820 856 820 - - 25 1000 985 995 1035 1000 44,5 580 560 558 - - 50 560 574 575
- - Tableau I-2 : Températures de fusion en fonction du % AlF3 dans le système KF-AlF3. Le fait de modifier le cation joue un rôle important également sur les propriétés physico-chimiques et la structure du liquide à haute température, ce qui peut avoir à terme une influence sur le procédé d'électrolyse. Ainsi, on constate par exemple que la solubilité de l'alumine augmente avec la taille du cation (Li < Na < K). La figure I-20 compare les mesures de solubilité avec les valeurs théoriques calculées à partir de résultats Raman et de données thermodynamiques. 33 Figure I-20 : Solubilité de l'alumine calculée (-) et mesurée(.) pour les systèmes MF-AlF3-Al2O3 (M=Na ou K) en fonction du CR à 1000 °C [60]. Ces résultats
s'expliquent par le fait que plus le potentiel ionique est élevé (Li>Na>K) plus l'interaction est forte entre le cation et le fluor. Cette interaction aurait donc tendance à empêcher la formation des oxyfluoroaluminates lors de la dissolution d'alumine dans le bain. Ceci a notamment été observé par spectroscopie Raman à haute température sur les systèmes MF-AlF3 (M=Li, Na ou K). Ce phénomène se manifeste avant tout par l'élargissement des bandes de vibration due à une distorsion des complexes au fur et à mesure que la taille du cation augmente (Li<Na<K) [39], [73]. Il en résulte que l'interaction entre les complexes anioniques et le cation devient alors beaucoup plus faible dans le cas du potassium. La spéciation dans les système avec du potassium, a été étudiée principalement par Tixhon [74] et Robert [75] à partir de mesures Raman, de pressions de vapeur et de solubilité. Ces travaux révèlent que les principales espèces présentes dans le bain restent le fluor libre F-, AlF52- et AlF4-, les complexes AlF63- deviennent très minoritaires, (Figure I-21). Globalement, nous retrouvons les mêmes complexes que dans le système NaF-AlF3, seule la proportion des fractions anioniques des différentes espèces change. L'augmentation de la taille de l'ion alcalin (Na<K) aurait tendance à favoriser davantage les anions AlF52-. 34
1,0 Fractions Anioniques AlF4- F- 0,8 0,6 0,4 AlF52- 0,2 AlF630,0 0 10 20 30 40 50 % mol AlF3
Figure I-21 : Distribution des fractions anioniques obtenue par spectroscopie Raman pour le système binaire KF-AlF3 à 1000°C [75], [76].
Dans le système KF-AlF3-Al2O3, les mesures Raman [60] et les mesures de solubilité d'oxygène [62], [77], s'accordent à dire que dans les bains fondus à faible teneur en oxyde d'aluminium, on trouve essentiellement les espèces Al2OF62- alors qu'à plus haute teneur en oxyde d'aluminium, l'espèce Al2O2F42- domine. Lorsque le bain est plus acide, l'espèce Al2O2F42- augmente, alors que la proportion de complexes Al2OF62- diminue. D'après les courbes de la Figure I-22, il semblerait que la présence de potassium induise une espèce supplémentaire par rapport au système au sodium, Al3O4F43-, mais en très faible quantité (<10%). Le potassium semble favoriser plus rapidement le di-oxyfluoroaluminate (Al2O2F42-). 35
Figure I-22 : Distribution des espèces oxyfluorées dans les systèmes KF-AlF3-Al2O3 à 1000 °C pour un CR=3. Symboles pleins: Raman ; vides: mesures solubilité d'oxygène. (●○ Al2OF62- ; ■□ Al2O2F42; ▲∆ Al3O3F63- ; ☆Al3O4F43-) Les deux mesures s'accordent sur l'existence des espèces anioniques présentes dans le mélange fondu. L'évolution des fractions anioniques
est comparable
.
Nous
notons simplement
une différence au niveau des quantités notamment pour des CR plus acides pour lesquels l
écart est plus important comme le montre la Figure I-23.
Figure I-23 : Distribution des espèces oxyfluorées dans les systèmes MF-AlF3-Al2O3 (M=Na ou K) à 1000 °C pour un CR=2. Symboles pleins: Raman ; vides: mesures solubilité d'oxygène. (●○ Al2OF62- ; ■□ Al2O2F42- ; ▲∆ Al3O3F63- ; ☆Al3O4F43-). I-3.5. Les additifs couramment utilisés Pour améliorer les propriétés physico-chimiques de l'électrolyte, différents fluorures du type AlF3, CaF2, LiF ou MgF2 sont généralement ajoutés dans le bain industriel. En effet, l'ajout de fluorure d'aluminium AlF3 par exemple permet d'abaisser la température de fusion et d'obtenir une meilleure efficacité dans le procédé en limitant la dissolution de l'aluminium métal dans le bain. Mais dans le même temps la conductivité électrique du bain diminue lorsqu'on rajoute AlF3. Le fluorure de lithium LiF a pour effet lui de diminuer la température de fusion et la viscosité de l'électrolyte. Il permet aussi de réduire les émissions de fluorures et augmente la conductivité électrique. Le fluorure de magnésium en quantité très faible de l'ordre de 2 à 4 % massiques, augmente légèrement la densité du bain. Généralement, tous les bains industriels contiennent environ 4 à 6 % massiques de fluorure de calcium, CaF2, formé en partie à partir d'impuretés de CaO présentes dans l'alumine : + → + 1.7 Le CaF2 permet d'augmenter le rendement du courant et de diminuer la température de fusion du bain. En conséquence, la densité et la viscosité du bain augmentent alors que la conductivité électrique et la solubilité de l'alumine dans le bain diminuent. Peu de données existent dans la littérature sur les espèces formées lors de la dissolution des différents additifs dans le bain cryolithique. A l'issue de mesures cryoscopiques, certains auteurs ont émis l'hypothèse que l'ajout de LiF, CaF2, NaCl et MgF2 dans le bain ne forme pas de nouveaux complexes anioniques [2], [3]. Dans le cas de la cryolithe, certains s ont observé une augmentation des espèces AlF63- lors de l'ajout de ces additifs dans le bain ce qui tendrait à montrer un effet de dilution de ces additifs [78]. Dans les travaux de Kvande et al. [79] sur le système Na3AlF6-CaF2, le meilleur accord entre la température de fusion mesurée et celle calculée a été obtenu en considérant la dissociation du CaF2 en CaF+ et CaF3-. Deux auteurs classent ainsi le CaF2 et le MgF2 comme des acides faibles c'est-à-dire des accepteurs d'ions fluor [80], [81]. D'après des mesures de conductivité électrique sur le système NaF-AlF3-CaF2, l'effet du CaF2 dépend énormément du rapport cryolithique (CR). Pour des solutions moins basiques que la cryolithe, le CaF2 se comporte comme une base tandis que pour des solutions plus basiques il ne jouerait aucun rôle [82]. -170 45 27Al 40 Na3AlF6-Al2O3 Na3AlF6-Al2O3-CaF2 19F -175 Na3AlF3-Al2O3 Na3AlF3-Al2O3-CaF2 35 d F (ppm) -185 19 25 27 d Al (ppm) -180 30 -190 20 -195 15 10 -200 0 2 4 6 8 10 12 14 0 2 4 6 Al2O3 mol% 8 10 12 14 Al2O3 mol%
Figure I-24 : Comparaison des évolutions des déplacements chimiques de 27 19 Al et de F dans les systèmes Na3AlF6-Al2O3-CaF2 et Na3AlF6-Al2O3 en fonction de la teneur en alumine - T=1030 C [86]. Ces résultats expérimentaux ont permis de conclure que l'ajout de CaF2 conduisait à la formation d'un complexe fluorocalcique (Ca-F) stable dans le liquide et indépendant de la teneur en alumine. Ces résultats sont en accord avec la réaction proposée par Gilbert et al. [40].
+ − − ↔ − − + − − i 1.9
Plus récemment au laboratoire, des mesures RMN à HT réalisées par Mallory Gobet sur le système [NaF-AlF3]CR2,2-Al2O3-CaF2 en faisant varier les ajouts d'alumine avec une concentration de CaF2 fixe de 5 % massique, ont démontré que l'ajout de CaF2 induit un changement de l'environnement local moyen de l'aluminium et de l'oxygène. Les déplacements chimiques du 17 O et 27 Al pour les compositions avec 5 % massique de CaF2 sont inférieurs à ceux déterminés dans les compositions sans fluorure de calcium. Pour l'aluminium cela se traduit par une augmentation de sa coordinence. D'après ces études, il a été conclu que l'ajout de CaF2 modifiait la chimie du bain et que cet ajout était dépendant rapport cryolithique (CR). Pourtant, l'influence du CaF2 sur les espèces oxyfluoroaluminates n'a pas été explicitement définie. 38 I-4. Approche structurale développée dans ce travail
Cette thèse s'inscrit dans un projet ANR autour du développement d'un procédé pour la production d'aluminium ne générant pas de gaz à effet de serre, grâce au remplacement des anodes actuelles en carbone par des anodes stables (« inertes ») vis-à-vis des fluorures. Le projet est axé sur la compréhension des mécanismes de corrosion d'anodes multi matériaux en s'appuyant sur une modélisation multi-échelle des espèces considérées comme responsables des phénomènes de corrosion de ces anodes. Cette démarche doit permettre de développer une stratégie d'optimisation des matériaux d'anodes en bain usuel, qui pourrait se traduire par une modification de la chimie et / ou de la température du bain. Pour cela il est nécessaire de connaitre la description quantitative de la chimie des bains d'électrolyse en termes d'espèces anioniques fluorées ou oxyfluorées, et de leur évolution en fonction des différents ajouts et de la température. D'après la bibliographie, il existe déjà plusieurs études expérimentales et théoriques sur des systèmes binaires ou ternaires simples. Cependant peu d'informations portent sur une description de la structure du bain industriel (système réel) à haute température, qui tiendrait compte de tous les paramètres possibles : les différentes compositions, la température, la nature du cation, le type d'alumine, la nature des additifs Quelques résultats de modélisations numériques [50]–[53] ont émergé dans la littérature mais ils concernent essentiellement des composés du système binaire NaF-AlF3. Encore peu de résultats sont obtenus par modélisation en considérant plusieurs conditions ou d'autres systèmes cryolithiques à haute température. Certaines questions persistent quant à la nature des complexes, leur durée de vie et leur évolution en fonction du rapport cryolithique (NaF/AlF3). La description du bain est donc d'une importance primordiale pour pouvoir faire évoluer le procédé vers des compositions à plus basse température [87]. Pour déterminer la spéciation in situ de ces systèmes liquides à haute température, nous avons choisi de développer une approche théorique couplée aux mesures par RMN à haute température. L'idée est de simuler le liquide par dynamique moléculaire grâce à un potentiel d'interaction atomique classique de paires d'ions polarisables. Les paramètres de ce potentiel sont ajustés à partir de calculs ab initio dans le cadre de la théorie de la fonctionnelle de la densité (DFT). 2 Techniques xpériment et Méthodes Calcul Techniques Expérimentales II-1. Principe de la Résonance Magnétique Nucléaire
La spectroscopie de Résonance Magnétique Nucléaire (RMN) est une technique non destructive basée sur les propriétés magnétiques de certains noyaux atomiques, qui permet d'obtenir des informations sur la structure locale d'un matériau en manipulant les spins nucléaires dans un champ magnétique intense. Elle permet notamment d'observer sélectivement l'environnement d'un noyau donné. Le spin nucléaire est une propriété intrinsèque des noyaux qui résulte du couplage entre les moments magnétiques des protons et des neutrons qui constituent les noyaux atomiques. Les noyaux avec un nombre de masse et un numéro atomique pairs ont un spin nul, tous les autres noyaux ont un spin nucléaire I ≥1⁄2. A tout noyau doté d'un spin est associé un moment magnétique nucléaire μ : Où, ⃗μ = est le rapport gyromagnétique du noyau et h est la constante de Planck 6,626.10-34J.s. Tous les noyaux possédant un spin nucléaire non nul sont alors observables en RMN. Le nombre de spin I détermine le nombre d'orientations possibles qu'un noyau peut adopter dans un champ magnétique externe (B0). Sans B0 tous les états de spin possèdent la même énergie, ils sont dégénérés. En présence de B0 la composante μ selon B0 prendra des valeurs discrètes: μz =. quantique magnétique m peut prendre les valeurs m=I, I-1, I-2, -I. . Le nombre Ainsi 2I+1 niveaux d'énergie existent pour les états de spin, il y a une levée de dégénérescence. Cette interaction entre le noyau atomique et le champ magnétique est l'effet de Zeeman. Il génère un mouvement de précession autour de B0 à une fréquence qui est propre à l'élément. Cette fréquence s'appelle la fréquence de Larmor : ν = La somme vectorielle de tous les moments magnétiques nucléaires, appelée aimantation macroscopique nucléaire M0, a la même direction que B0, Figure II-1. Cette aimantation, proportionnelle au nombre de noyaux est celle mesurée lors d'une expérience de RMN. M0 β Figure II-1 : Spins nucléaires plongés dans un champ magnétique B0. Lors d'une expérience RMN on perturbe cet équilibre en créant des transitions entre les niveaux d'énergie (excitation des spins
) grâce
à un
deuxième
champ magn
étique
B1 perpendiculaire
à
B0
.
En pratique, B1 est une onde électromagnétique de fréquence νr, la fréquence de Larmor ou de résonance, située dans la gamme des ondes radio et qui dépend de l'élément étudié et de B0. Cette impulsion radiofréquence RF est de l'ordre de quelques microsecondes à quelques millisecondes. A la fin de l'impulsion, le système retourne vers son état d'équilibre en précessant autour de B 0, et c'est le phénomène de relaxation qui caractérise le retour de l'aimantation à sa position initiale. Un traitement par transformée de Fourier du signal de précession libre FID (free induction decay) permet alors de passer d'un signal dans le domaine du temps (FID) à un signal dans le domaine des fréquences (spectre). La fréquence de résonance étant directement proportionnelle au champ appliqué B0 et au rapport gyromagnétique, il suffit donc d'ajuster pour l'impulsion la fréquence du noyau ciblé, ce qui donne un caractère sélectif à cette technique. Les caractéristiques RMN des noyaux étudiés dans cette étude pour un champ magnétique de 9,4 T (400MHz) sont reportées dans le tableau II-1. Pour l'oxygène, le seul isotope observable (spin non nul) et stable est l'oxygène 17 (17O) mais avec une très faible abondance naturelle.
Rapport Noyau gyromagnétique Spin Fréquence Larmor à Abondance B0=9,4 T (MHz) Naturelle (%) (107 rad.s-1.T-1) 19 F 25,16 1/2 376,5 100 27 Al 6,97 3/2 104,3 100 23 Na 08 5/2 105,8 100 -3,628 5/2 54,2 0,038 17 O
Tableau II-1 : Caractéristiques RMN des noyaux étudiés pour un champ magnétique de 9,4 T (400MHz). En fonction des caractéristiques du noyau étudié, le signal peut nécessiter une accumulation de plusieurs centaines de spectres pour un même noyau dans les conditions expérimentales identiques pour obtenir un bon rapport signal/bruit. On parle alors, du nombre de scans N avec un temps de recyclage D1 (temps qui sépare chaque scan). Dans cette étude, nous utilisons la séquence d'impulsions simple avec un pulse unique de 90° (π/2), Figure II-2.
Figure II-2 : Séquence d'impulsion utilisée. Cette impulsion RF a une durée qui est déterminée au préalable par des expériences préliminaires sur les références utilisées (tableau II-2). Ces conditions d'acquisition sont présentées dans le tableau II-2 pour les noyaux 27Al, 19F, 23Na et 17O.
Durée Puissance de Temps de d'impulsion P1 l'impulsion recyclage D1 (μs) (W) (s) 41 50 F 27 Na Noyau observé 27 Al 19 23 17 O Nombre de Références scans utilisées 0,25 128 Al(NO3)3 1M 50 2 32 CFCl3 1M 39,4 50 1 4 NaCl 1M 50 100 0,25 518 H2O
Tableau II-2 : Conditions d'acquisition des spectres lors des mesures RMN à haute température. II-2. Principales interactions en RMN
La densité électronique autour des noyaux est polarisée par l'application du champ statique intense B0. Cette polarisation génère localement une densité de courant qui induit à son tour un champ inhomogène Bind proportionnel à B0 : Bind=σ.B0, où σ est le tenseur d'écrantage magnétique. On dit qu'il y a un effet d'écran qui perturbe la fréquence de résonance : ν= ν0.(1- σ). La position de la raie est modifiée de quelques hertz à quelques kilohertz. En RMN, la position des raies de résonance sur un spectre est exprimée par rapport à une référence choisie. Les références utilisées pour chaque noyau étudié sont reportées dans le tableau II-3. On définit alors le déplacement chimique isotrope δiso, exprimé en ppm (partie par million), par : = ν−ν ν. Ainsi, l'interaction des électrons avec le noyau sondé permet de mesurer un déplacement chimique ( ), indépendant du champ B0. La nature et le nombre de premiers voisins influençant fortement le signal de résonance mesuré, l'écrantage perçu par le noyau renseigne donc sur son environnement chimique. Il existe d'autres interactions qui modifient la résonance telle que l'interaction dipolaire. Elle provient du couplage entre les spins des noyaux voisins se propageant à travers l'espace (couplage dipolaire directe). Son intensité dépend principalement de la distance entre les noyaux. L'interaction de couplage scalaire J est une interaction indirecte entre les spins nucléaires et la densité électronique locale à travers les liaisons chimiques. Ce couplage scalaire contient donc des informations sur les distances et les angles formés par les liaisons chimiques. Pour les noyaux qui présentent une distribution de charge non sphérique (I > 1⁄2) engendrant un gradient de champ électrique, il existe également un moment quadripolaire électrique en plus du moment magnétique nucléaire. Cette interaction quadripolaire permet de sonder la déformation géométrique du nuage électronique autour du noyau. Dans les solides, toutes ces interactions sont anisotropes c'est-à-dire que leurs effets dépendent de l'orientation du motif structural dans le champ principal B0. Dans les liquides, du fait de la réorientation rapide des molécules pendant le temps de la mesure, les interactions dipolaires et quadripolaires disparaissent. Et la partie anisotrope du tenseur d'écrantage (dépendant de la direction) étant moyennée à zéro sur le temps, seul le déplacement chimique isotrope persiste dans les liquides : σiso= (σxx+ σyy+ σyy)/3. II-3. RMN à haute température
Au laboratoire CEMHTI-CNRS à Orléans, un dispositif expérimental unique associant la RMN et les hautes températures a été développé. Il est basé sur un système de chauffage par laser CO2 continu de 250 W fonctionnant à une longueur d'onde de 10,6 μm. Le chauffage se fait sans perturbation de la bobine radiofréquence grâce à l'ajout d'écrans thermiques en céramique pour la protéger. Couplé à un système de lévitation aérodynamique, ce dispositif peut atteindre des températures jusqu'à environ 2500°C, pour l'étude des verres d'oxyde sous forme de petites billes de 3 mm de diamètre par exemple. Dans le cas d'échantillons hygroscopiques et/ou volatiles tels que les sels fondus, les échantillons sont insérés sous forme de poudre en boîte à gants dans des creusets en nitrure de bore (sans liants oxydes) de haute pureté (BN AX05, Carborundum). L'étanchéité du creuset est assurée grâce à un bouchon à vis lui-même en BN, Figure II-3. Il est inerte vis-à-vis des fluorures, se caractérise par une bonne conductivité thermique (20-300 W.m-1.K-1 à 20°C) et une température de fusion élevée (2600°C) sous atmosphère réductrice.
46 Figure II-3 : Creuset cylindrique en nitrure de bore utilisé pendant les expériences RMN HT de diamètre externe 9 mm et de hauteur 14 mm. Le dispositif expérimental utilisé est présenté sur la Figure II-4. Il est constitué de deux lasers CO2 qui irradient directement le creuset, symétriquement et simultanément par le haut et le bas, ce qui permet d'assurer une bonne homogénéité de chauffage en limitant les gradients de température au niveau de l'échantillon. CO2
Laser CO2 Figure II-4 : Montage expérimental RMN à haute température. Les expériences sont réalisées sur un spectromètre RMN Bruker AVANCE I fonctionnant à 9,4 T. La sonde axiale
, initialement prévu
e
pour
la RMN du liquide
,
a été spécialement modifi
ée
au
laboratoire
en collaboration
avec Bruker
pour
l'
utilisation
à
haute
temp
érature
. C'est une
sonde
statique multi noyaux avec deux canaux RF (canal : X et 1H-19F), qui peut être accordé pendant l'
expérience
en température. Elle présente un double circuit de refroidissement par circulation d'air à température et pression ambiantes. Ce refroidissement permet de préserver la bobine radiofréquence et les composants électroniques pendant les
expérience
s à haute température. Ces améliorations du système de refroidissement nous permettent de nous dégager des contraintes d'échauffement de la sonde avec la température de l'échantillon et la durée de l'expérience. Durant le chauffage, les creusets en BN sont maintenus sous un flux continu d'argon pour éviter leur oxydation. 47 38
ppm
Lors de d'une expérience RMN en température, la fusion d'un composé s'accompagne généralement AlF NaAlF d'un changement de forme du signal. Avant fusion le signal est large (solide) alors qu'au4passage de 4 ppm la Figure II-5. l'état liquide, ce signal devient très fin comme le27montre 1010°C Na5Al3F14 19 ppm 1010 °C (liquide) Na3AlF6
4 ppm 900°C 900 °C (solide) 50.0 40.0 30.0 20.0 10.0 0.0 -10.0 Na3AlF6 solide HT AlF63- -20.0 (ppm
)
Figure II-5 – Comparaison du spectre RMN du noyau 27Al de cryolithe solide avant fusion (signal large) et celui de la cryolithe fondu à 1010 °C. Dans le cas de la cryolithe, la diminution de la largeur est accompagnée par un changement de la position du pic d'aluminium. Dans la cryolithe solide l'aluminium est entouré de six fluor (coordinence 6) avec un déplacement chimique de 4 ppm. Le changement de position du pic à l'état fondu (19 ppm) indique un changement de la coordinence de l'aluminium lors de la transition solideliquide
. À haute température, les différentes espèces ioniques présentes dans le système sont en échanges très rapides (quelques picosecondes), comparés à l'échelle de temps de la mesure par RMN (10-9 s). Il en résulte que le signal RMN à haute température obtenu se traduit par un seul pic fin qui est la moyenne temporelle de toutes les configurations ioniques. Le déplacement chimique moyen (̅) associé à la position du pic est la moyenne des déplacements chimiques de chaque espèce dN(Ai) pondérés par leur abondance (fraction atomique) : ̅ = ∑X. δ Ai étant le déplacement chimique du noyau N pour l'esp Ai et X Ai le rapport du nombre de noyaux N de l'espèce Ai sur le nombre total de noyaux N. Pour déduire l'information structurelle avec les déplacements chimiques moyens obtenus à haute température, il est donc nécessaire de définir une échelle de déplacements chimiques dans les fluorures fondus grâce à des mesures sur des composés où la structure locale est bien résolue [31], [48], [88]– [93] et d'établir une corrélation empirique pour définir les gammes de déplacement chimique. Par exemple, la signature RMN d'un aluminium en coordinence 6 a été choisi dans la cryolithe solide juste 48 avant fusion, pour la coordinence 4 (AlF4-) la signature est extraite à partir de MAlF4 (M=Li, Na ou K) où d'après les études thermodynamiques [3] et les mesures Raman [28], [76] seule la coordinence 4 existe. La signature RMN pour − a été trouvée dans l'étude d'un verre de jadéite dopé par de la cryolithe [91] et dans des verres aluminosilicates [88]. L'échelle des déplacements chimiques de 27Al est présentée sur la figure II-6.
AlO45- Oxydes AlO57- AlF4- Fluorures Oxo-Fluorures 90 Al2O2F4270 AlO69- AlF63- AlF52- Al2OF6250 30 δ27Al 10 -10 (ppm) Figure II-6 : Gamme de déplacements chimiques pour 27Al [31]. II-3.1. Protocole de mesures à haute température
Pour chaque expérience, les échantillons sont chauffés par palier jusqu'à la température de travail, 20°C au-dessus de la température de fusion si on travaille à surchauffe constante ou jusqu'à 1030°C si on travaille à température constante. L'acquisition des spectres commence 5 minutes après avoir atteint le palier en température désiré pour s'assurer que le système est bien à l'équilibre thermique. Les mesures RMN sont alors réalisées pour chaque noyau de façon séquentielle. Bien que cette procédure nécessite de changer très rapidement la fréquence de résonance pour chaque noyau, elle permet de mesurer les spectres dans les mêmes conditions pour tous les noyaux. Les paliers en température ont été limités à 20 min pour assurer la stabilité du système et garantir la reproductibilité des mesures expérimentales.
II-3.2. Calibration Température - Puissance Laser
La température ne peut pas être mesurée pendant les expériences RMN, du fait des perturbations que cela pourrait engendrer sur la mesure aussi une courbe de calibration reliant la température de l'échantillon et la puissance laser est réalisée systématiquement au début de chaque campagne de mesures. Pour cela, en fonction de la gamme de température de mesures visée, des composés fluorés purs ou eutectiques dont les températures de fusion sont connues ont été utilisés. La fusion d'un composé s'accompagne généralement d'un changement net de la largeur du pic comme le montre la figure II-7. Figure II-7 : Comparaison du spectre RMN de LiF solide avant fusion (signal large) et fondu à 850 °C (δ= -201 ppm). [94] En fonction des températures de fusion, nous pouvons repérer la puissance laser qui correspond à ce changement dans le signal RMN, il est possible alors d'obtenir la courbe d'étalonnage ci-dessous Figure II-8. Grâce à ce protocole les températures de fusion sont déterminées à ± 10 °C en fonction de la puissance laser.
1100 Na3AlF6 1000 NaF 900 LiF 800 700 (YF3)0,2-(LiF)0,8 600 (LiF)0,5-(KF)0,5 500 3 4 5 6 7 8 9 10 11 12 Puissance Laser %
Figure II-8 : Courbe d'étalonnage de la température de fusion en fonction de la puissance laser. II-3.3. Préparation des échantillons
Au cours de ce travail plusieurs systèmes ont été étudiés, MF-AlF3, MF-AlF3-Al2O3 (M=Na ou K), NaF-AlF3-Al2O3-CaF2 et NaF-KF-AlF3-Al2O3-CaF2. Les compositions chimiques sont présentées dans l'annexe A. En fonction du mélange souhaité, les compositions sont préparées à partir d'AlF 3 (Alfa aesar 99,99%), de NaF (Alfa aesar, 99,995%), de CaF2 (Alfa aesar 99,99%) et de KF (Alfa aesar 99,99%). Notons ici que pour observer l'oxygène lors des expériences par RMN, l'alumine a été 50 enrichie en 17 O à partir de l'isopropoxyde d'aluminium et de l'eau enrichie en isotope 17 O, selon la procédure décrite par Kim et al. [95]. La préparation des échantillons est réalisée en boîte à gants sous argon (O2 < 2 ppm, H2O (5 bar) < 3 ppm) afin d'éviter toute oxydation et hydratation des mélanges. Les différentes poudres sont broyées manuellement pendant plusieurs minutes dans un mortier en agate jusqu'à l'obtention d'un mélange homogène. A l'issue de cette étape, environ 50 à 60 mg de poudre correspondant aux différents mélanges réalisés a été prélevé puis introduit dans des creusets en nitrure de bore de haute pureté (BN AX05, carborundum) pour les expériences RMN.
II-4. Analyse thermique des fluorures (DSC)
La Calorimétrie différentielle à balayage ou DSC pour Differential Scanning Calorimetry permet de mesurer les transitions de phase du matériau en fonction du temps ou de la température. Au CEMHTI, l'appareil utilisé est le Multi-HTC 96 (SETARAM) qui permet d'effectuer des mesures DSC jusqu'à une température de 1600 °C. Des métaux de haute pureté tels que l'or et l'argent, dont les enthalpies et les températures de fusion sont connues, ont été utilisés au préalable pour étalonner l'appareil en température. Nous avons utilisé des creusets en nitrure de bore du même type que ceux utilisés en RMN, fermés par un bouchon à vis de diamètre extérieur 6,8 mm et hauteur 22 mm. Toutes les analyses ont été effectuées sous balayage d'argon (20 ml/min) afin d'assurer une atmosphère inerte autour du creuset avec une rampe de chauffage et de refroidissement de 10°C/min. Le premier chauffage permet d'homogénéiser le mélange et les températures de fusion ont été déterminées à partir des thermogrammes enregistrés lors du refroidissement en utilisant la méthode des tangentes, Figure II-9, avec une incertitude de ± 2 °C.
225 150 75 0 561
°
C 694
°
C 986
°C
-75 -150 200 300 400 500 600 700 800 900 1000 1100
T (°C) Figure II-9 : Thermogramme du système binaire NaF-AlF3 pour un CR (NaF/AlF3) de 2,2. Méthodes de Calculs
De nos jours, les méthodes de calcul décrivant le comportement des particules sont devenues un outil incontournable pour la compréhension des propriétés physiques et chimiques des systèmes atomiques et moléculaires. Ces méthodes sont souvent utilisées pour prédire ou même compléter les données expérimentales. Dans le cas des fluorures fondus, le caractère volatil, corrosif et les hautes températures rend plus difficile l'étude expérimentale. Notons que ce sont des échantillons qui nécessitent des creusets ou porte-échantillons spécifiques : sans oxyde, résistant aux hautes températures et inerte vis-à-vis des fluorures fondus. Les études impliquent alors des conditions particulières, rendant les mesures délicates, couteuses et souvent uniques dans peu de laboratoires de recherche [47], [57], [96]. Les méthodes de calculs proposent une approche théorique complémentaire de ces approches expérimentales et permettent d'approfondir les connaissances de ces milieux fluorés. Dans ce travail, nous utilisons les méthodes de calcul par dynamique moléculaire afin d'étudier la spéciation des mélanges de fluorures fondus à haute température. Nous avons choisi la dynamique moléculaire car cette méthode de simulation numérique introduit une notion de temps en simulant la trajectoire de l'ensemble des atomes. Cette méthode est particulièrement adaptée pour accéder aux propriétés dynamiques des liquides comme les coefficients d'autodiffusion, la viscosité et la conductivité électrique. Pour avoir accès à de longues trajectoires d'atomes, nous utilisons la dynamique classique qui permet d'étudier des systèmes de quelques milliers d'atomes sur des dynamiques de 1 à 5 ns pour des temps de calculs raisonnables. Cependant, pour mettre en oeuvre ce type de dynamique, il est nécessaire d'introduire un modèle empirique réaliste » de potentiel d'interaction atomique permettant de décrire correctement les interactions entre les particules du système. Le potentiel d'interaction est développé en utilisant des calculs de premier principe ou ab initio reposant sur la théorie de la fonctionnelle de la densité (DFT). Ces calculs effectués à l'échelle des électrons, sont entièrement basés sur la mécanique quantique et ne nécessitent pas d'introduire de modèle physique a priori. Ces méthodes sont très précises mais limitées à quelques centaines d'atomes et à des échelles de temps réduites de l'ordre de la picoseconde en raison des coûts importants en temps de calcul. En parallèle, des calculs issus de la DFT permettent de calculer les déplacements chimiques des différents noyaux du système et de les comparer avec les résultats expérimentaux. 54 II-5. Calculs ab initio : Concepts II-5.1. Equation de Schrödinger
Le comportement d'un système de particules composé de noyaux, d'atomes, d'électrons et de photons est décrit par les lois de la mécanique quantique. Erwin Schrödinger [97] écrit la formalisation mathématique du mouvement d'un ensemble d'électrons et d'atomes sous la forme d'une équation d'onde ce qui lui a valu le prix Nobel de la physique en 1933. L'équation de Schrödinger décrit l'évolution dans le temps (t) d'une particule massive non relativiste selon l'hamiltonien (H): Hψ, = ħ Ou : ∂ ψ, ∂ ψ désigne la fonction d'onde, ħ la constante de Dirac : ħ = ⁄ = [− ∇ +V ]ψ, =1,05457x10-34 Js, m la masse de la particule, ∇ est le laplacien, V(r) représente l'énergie potentielle de la particule au point r. L'équation de Schrödinger s'applique à une fonction d'onde d'un système qui dépend de la position et du temps. Lorsque l'on cherche la solution stationnaire, c'est-à-dire indépendante du temps, l'équation de Schrödinger s'écrit : [− ∇ +V ]ψ = ψ = Hψ où E est l'énergie totale du système. Avec l'opérateur énergie cinétique T = − s'écrit H = T + V. ∇, l'hamiltonien
Dans le cas d'un système composé de n électrons en interaction avec N noyaux et décrits par la fonction d'onde poly-électronique ψ = ψ, d'énergie E, l'hamiltonien contient les,, contributions de l'énergie cinétique des électrons (Tél), l'énergie cinétique des atomes (Tn), le potentiel d'interaction électrostatique noyau-électron (Vél-n), le potentiel d'interaction électron-électron (Vél-él) et enfin le potentiel d'interaction noyau-noyau (Vn-n) :
H = − ∑∇ − ∑ ∇ +∑ < +∑ = Té + +T + Vé −é + V 55 < − R + Vé − − ∑∑
R Où, i et j désignent les électrons, A et B désignent les noyaux, MA et ZA sont respectivement la masse et la charge du noyau considéré, RAi, rij et RAB sont respectivement les distances noyau / électron, électron / électron et noyau / noyau. Toutefois, en raison de l'absence des termes de répulsion colombienne entre les électrons, cette équation n'est soluble exactement que pour des systèmes atomiques ou moléculaires ne comprenant qu'un seul électron. Pour des systèmes possédant un nombre d'électrons plus important, il est nécessaire d'utiliser des approches simplificatrices. Au niveau des calculs de premiers principes, il existe deux grandes écoles pour résoudre cette équation : la méthode Hartree-Fock (HF) et la méthode basée sur la théorie de la fonctionnelle de la densité (DFT). Toutes deux cherchent à résoudre cette équation sans introduire de paramètres ajustés à l'expérience. Cette résolution consiste à déterminer l'énergie totale du système (E) et la fonction d'onde (). II-5.2. Principales approximations
L'approximation de Born-Oppenheimer [98] permet de séparer le mouvement des électrons et des noyaux. Compte tenu du fait que les noyaux sont beaucoup plus lourds que les électrons (mn ≈ 2000 x me), les dynamiques du noyau atomique et celle des électrons peuvent être séparées : ψ = ψé × ψ De ce fait, l'énergie cinétique du noyau est négligée ( T = ) et le potentiel d'interaction noyau-noyau (Vn-n) devient constant. Cette approximation prend en compte une évolution des électrons dans un potentiel crée par des atomes fixes.
H =T +V − ≈ +V − Hé = Té + Vé −é + Vé −
Le potentiel Vél-n est alors vu par les électrons comme un potentiel fixe que l'on peut considérer comme un potentiel extérieur (Vext). L'hamiltonien total peut donc se réécrire en ne conservant que la partie purement électronique. L'approximation Hartree ou orbitale est la base de presque toutes les méthodes de premier principe pour tenir compte de la répulsion colombienne. Cette approximation [99]–[101] consiste à développer la fonction d'onde poly-électronique de n électrons en un produit de n fonctions mono-électroniques : ψé, = φ ×
φ
56
× × φ
Où φ la fonction d'onde électronique est composée d'une partie spatiale, l'orbitale, et d'une partie de spin. Les électrons se déplaçant dans un champ moyen créé par des noyaux immobiles, ils sont soumis à un potentiel nucléaire statique. La fonction d'onde électronique est alors calculée pour une position donnée des noyaux et dépend de paramètres liés aux coordonnées nucléaires. Toutefois, les particules étant indépendantes, il n'y a pas de corrélation entre les mouvements des électrons. L'approximat ion consiste alors à modéliser l'interaction de coulomb par un potentiel effectif (V Hartree) agissant sur chaque électron, d'où le nom principe du champ moyen. Ce potentiel effectif représente l'effet moyen de l'ensemble des autres électrons sur l'électron considéré. Les méthodes Hartree et Fock utilisent cette simplification et supposent que le principe d'exclusion de Pauli est respecté si l'on écrit la fonction d'onde sous la forme d'un déterminant de Slater : ψé { } = [ φ √! φ ⋱ φ φ ] Malgré ces simplifications, la résolution de l'équation de Schrödinger reste extrêmement ardue car pour un système à n électrons elle dépend de 3N coordonnées d'espace. De plus, la répulsion électronique étant moyennée, une partie de la corrélation électronique est négligée dans cette méthode. II-6. «
La connaissance de la densité
électronique est tout ce dont nous avons besoin pour une détermination
compl
ète des propriétés moléculaires » E. Bright Wilson, 1965
Alors que les méthodes Hartree-Fock conduisent à exprimer l'énergie du système comme une fonctionnelle de sa fonction d'onde (), pour les méthodes DFT l'énergie est une fonctionnelle de la densité électronique du système (). Cette théorie repose sur 2 théorèmes formulés par Hohenberg et Kohn [104] en 1964 : 57 1. l'énergie à l'état fondamental est une fonctionnelle de la densité électronique E=E [] 2. la densité électronique qui minimise l'énergie totale de la fonctionnelle est l'état fondamental : E []> E0 [fond] Ces deux théorèmes offrent donc un cadre théorique permettant d'envisager la résolution de l'équation de Schrödinger via la densité électronique comme variable principale. L'énergie totale d'un système de N électrons interagissant entre eux est donc fonctionnelle de la densité et la recherche de l'énergie de l'état fondamental peut être réalisée de manière itérative en se basant sur une loi variationnelle. En s'appuyant sur l'approximation de Born-Oppenheimer et ces deux théorèmes, l'hamiltonien total peut donc se réécrire en ne conservant que la partie purement électronique [105]: [ ]=
[ ]+ − [ ]+ − [ ]+ − [ ]
On a donc une énergie qui dépend de trois termes, tous fonctionnelle de la densité . [ ]= T[ ]+ − [ ] Le premier terme correspond à la fonctionnelle de l'énergie cinétique, le deuxième représente la fonctionnelle d'interaction noyaux/électrons et coulombienne électron/électron. − [ ] est la fonctionnelle d'interaction
Cette formulation est néanmoins imprécise car elle ne tient pas compte de l'énergie d'échange EX, conséquence du principe de Pauli, ni des corrélations entre électrons EC [106]. De plus, il est en général très difficile de connaître de façon explicite les fonctionnelles exactes ET [] et Ee-e[] (notée aussi FHK fonctionnelle de Hohenberg et Kohn) car nous n'avons accès qu'à la partie dite indépendante et classique de ces termes, du fait de leur comportement de type charge "ponctuelle". Pour contourner ce problème Kohn et Sham [107], ont imaginé un système fictif d'électrons sans interaction qui aurait la même densité électronique (r) que le système réel. C'est l'approximation de Kohn-Sham. Ce théorème permet de dissocier la partie dépendante et indépendante de la fonctionnelle FHK pour garder une énergie cinétique classique et un potentiel coulombien Vcoule-e détachés de la partie non indépendante appelée fonctionnelle d'échange et corrélation EXC. Le potentiel Vcoule-e est appelé potentiel d'Hartree noté VH. Grâce à cette approximation, la résolution de l'équation de Schrödinger avec une seule fonction d'onde multiélectronique consiste alors à résoudre N équations avec des fonctions d'onde mono électroniques, appelées équations Kohn-Sham. Les électrons sont maintenant plongés dans un potentiel effectif Veff, comprenant le potentiel d'Hartree, le potentiel électrostatique entre noyaux et électrons (Ve-N) ainsi que le potentiel d'échange et corrélation (VXC).
Veff [(r)] = VH[ (r)] + Ve-N [ (r)] + VXC[ (r)] 58 Avec VX [ ] = ∂ X ∂ [ ]
'énergie EXC[] qui rend compte des phénomènes quantiques (T+V non classiques) n'est pas connue à priori. En déplaçant le problème dans ce terme, la difficulté se trouve réduite à calculer seulement une intégrale dépendante de la densité électronique (r) et de la densité de trou d'échange et de corrélation. Pour déterminer cette énergie, il existe plusieurs méthodes qui sont toutes basées sur la représentation d'un gaz d'électrons [108], [109]. La méthode LDA (Local density approximation), considère autour d'une coordonnée r un nuage homogène et donc juste une densité (r) alors que la méthode GGA (Generalized Gradient approximation), celle que nous avons choisi pour nos calculs, permet de mieux appréhender les variations de densité localement en considérant autour d'une coordonnée r un nuage non homogène qui prend en compte la densité (r) mais aussi son gradient (r). II-6.1. Utilisation de pseudopotentiels
Les calculs ab initio réalisés dans le cadre de la DFT permettent d'étudier des systèmes larges avec une bonne précision. Afin d'obtenir des temps de calculs satisfaisants, il est nécessaire de limiter le nombre de fonctions d'ondes planes en réduisant le nombre d'électrons dans le système. Ceci est réalisé en se plaçant dans l'approximation dite « coeur gelé » grâce à l'utilisation de pseudopotentiels. Au lieu de faire un calcul 'tout électron', les états électroniques de coeur sont considérés comme des charges fixes « frozen core approximation ». En effet, ce sont les électrons de valence qui participent aux liaisons chimiques [112] alors que les électrons de coeur sont fortement liés au noyau atomique et donc peu sensibles à l'environnement proche de l'atome. De plus, ces électrons « de coeur » sont décrits par des fonctions d'ondes ayant de grandes variations d'amplitude, ce qui nécessite un grand nombre d'ondes planes pour pouvoir rendre compte de cette situation. L'augmentation de la taille des fonctions d'onde utilisées accroîtrait par conséquent fortement les temps de calcul, Figure II-10. Figure II-10 : Exemple d'une fonction d'onde réelle et du pseudopotentiel associé. Les courbes coïncident parfaitement après le rayon de coupure rc [105]. Grâce à cette approximation, les électrons de coeur ne sont plus traités explicitement lors du calcul mais leur présence est simulée via des pseudopotentiels qui préservent les propriétés des électrons de valence.
D'après
ce ca
hier des
charge
s
,
un « bon »
pseudopotentiel
doit
donc
être : - doux, c'est-à-dire que le développement des pseudo
-
fonctions d'ondes de valence doit se faire en utilisant peu d'ondes planes ; - transférable dans un large domaine d'application ; - la densité de la pseudo-charge doit reproduire la densité de charge de valence aussi précisément que possible. Le paramètre clef pour assurer un bon recouvrement entre le potentiel « tout électron » et le pseudopotentiel choisi est le rayon de coupure rc. Ainsi, plus ce rayon est petit, plus le pseudopotentiel et le potentiel réel seront semblables assurant ainsi une bonne transférabilité mais ceci nécessitera le choix d'un nombre d'ondes planes important. En revanche, le choix d'un grand rayon de coupure, ce traduira par un pseudopotentiel avec peu d'ondes planes ce qui permettra une convergence plus rapide et un meilleur lissage du potentiel entre la zone de coeur et la zone de valence. Dans ce cas, on parle de pseudopotentiel « doux ». Vanderbilt [113] a proposé la première génération de pseudopotentiels ultra-doux appelés USPP. Par la suite, Blöchl [114] a introduit la méthode PAW (Projector Augmented Wave) qui permet également de générer des pseudopotentiels ultra-doux dans lesquels la grille utilisée pour reconstruire la densité électronique autour de chaque atome est radiale. Les pseudopotentiels USPP permettent d'obtenir une s bonne précision, mais les pseudopotentiels PAW sont plus performants notamment pour le calcul des paramètres RMN. II-6.2. Paramètres des calculs DFT et limitations
La première étape d'un calcul DFT est de créer une boîte de simulation numérique de dimension finie dans laquelle on dispose différents types d'atomes de façon aléatoire ou à partir de données cristallographiques. Pour une composition chimique donnée, le nombre d'atomes de chaque espèce est choisi de telle sorte que la stoechiométrie et la neutralité électronique du système soient respectées. De nombreux paramètres de calcul sont également à prendre en compte avant de lancer un calcul (choix du pseudopotentiel, de la fonctionnelle, de la base de fonctions d'onde, rayon ou énergie de coupure). Le choix de ces paramètres aura un impact important sur le temps et la précision (au sens chimique) du calcul. Bien que les électrons soient considérés comme indépendants, la DFT apporte une précision très satisfaisante pour calculer des paramètres physiques reposant sur l'interaction d'un champ (magnétique ou électrique) avec le nuage électronique des atomes. Ainsi l'utilisation du code CASTEP basé sur des calculs d'ondes planes et de pseudopotentiels permet d'accéder aux déplacements chimiques et aux gradients de champs électriques déterminés expérimentalement par RMN. Il existe néanmoins encore quelques limitations à l'utilisation de la DFT compte tenu des approximations effectuées. Ces dernières induisent un certain nombre d'erreurs caractéristiques (tableau II-4). Ainsi dans l'approche semi-locale GGA de la fonctionnelle d'échange et de corrélation, la longueur des liaisons est surestimée systématiquement alors que les barrières d'énergie sont minimisées. Les forces de dispersion dans les calculs DFT sont également souvent négligées car le nuage électronique est centré sur le noyau du fait de l'approximation de Born-Oppenheimer. Notons également que pour une même ion dans le calcul du terme d'échange et de corrélation (LDA ou GGA), les résultats peuvent diverger d'une fonctionnelle à l'autre.
Propriétés LDA GGA Ex 5% (pas assez négative) 0.5 % EC 100% (trop faible) 5% 1% trop courte 1% trop longue 100% trop faible 30% trop faible Structure Favorise les empilements compacts
Tableau II-4 :
Erreurs caractéristiques d'un
calcul
DFT par approche locale (LDA) ou semi-locale (GGA) [115]. La méthode de calcul DFT est implémentée dans plusieurs codes de calcul. Ici nous avons utilisé le code CASTEP pour le calcul des paramètres RMN, le code VASP pour la dynamique moléculaire et le code GAUSSIAN pour l'approche cluster. 62
II-7. Calcul des paramètres RMN – Code CASTEP
Après avoir rappelé succinctement le principe des calculs DFT dans la partie précédente, nous allons aborder dans cette partie le calcul des paramètres RMN avec le code CASTEP basé sur des calculs quantiques qui entrent dans le cadre de la DFT.
II-7.1. Calcul du tenseur d'écrantage isotrope
Le déplacement chimique déduit d'une expérience RMN correspond au déplacement de la fréquence de résonance du noyau observé par rapport à la fréquence de résonance d'une référence dont on connaît parfaitement la structure. Ce déplacement lié à l'environnement local du noyau sondé trouve donc son origine physique dans l'écrantage du champ magnétique par le nuage électronique. Pour déterminer ce déplacement, il suffit donc de connaître le tenseur d'écran isotrope (). Ce dernier peut être calculé grâce à la méthode PAW/GIPAW [114], [116] (Projected Augmented Wave/Gauge Including Projected Augmented Wave) implémentée dans le code CASTEP [117], [118]. Cette technique permet de reconstruire dans un premier temps la partie de la densité électronique tronquée par l'utilisation de pseudo-potentiels (PAW). Puis dans un deuxième temps, elle permet d'accéder à la densité de courant au premier ordre via un calcul de perturbation faisant intervenir des fonctions d'onde électroniques lorsque le système est au repos ou dans un état perturbé. Une fois cette densité de courant connue, il suffit d'utiliser la loi de Biot et Savart qui relie le champ magnétique extérieur au champ magnétique induit pour dédu le tenseur d'écran isotrope.
| 27,082
|
f7083395ad02289f143470fbe3182fa9_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Renouveau romanesque
|
None
|
French
|
Spoken
| 7,188
| 12,745
|
LE ROMAN À IMAGES
Description et fragmentation dans Le Jardin des Plantes de Claude Simon,
L’Inauguration de la salle des Vents de Renaud Camus et Terrasse à Rome de
Pascal Quignard
by
Chiara Falangola
A THESIS SUBMITTED IN PARTIAL FULFILLMENT OF THE
REQUIREMENTS FOR THE DEGREE OF
DOCTOR OF PHILOSOPHY
in
The Faculty of Graduate Studies
(French Studies)
THE UNIVERSITY OF BRITISH COLUMBIA
(Vancouver)
June, 2013
© Chiara Falangola, 2013
ABSTRACT
The framework used to study the three novels arises from the need to define a particular type of
descriptive and fragmented scripta, which textualize an historical or existential disaster.
Approaching our texts as ‘romans à images’, we endeavour to create a definition that
problematizes the techniques of the ‘conventional’ novel and engenders a new conception of
narrative and of its formal dominant, in relation to art and to the notion of incommensurability.
The three novels textualize an existential or historical disaster: Simon’s Jardin thematizes
World War II through the author’s own experience, as well as the inscription in the text of the
painter Gastone Novelli’s post-Holocaust art. Camus’ Inauguration is a three hundred pages long
elegy to those friends lost because of AIDS, whose memory the novel tries to preserve. The
circular, mirrored structure of L’Inauguration is inspired by the artist Jean-Paul Marcheschi’s
work. Quignard’s Terrasse is a series of literary tableaux writing the quest for the origins of and
the quest for the self. The poetics of the latter draws heavily from the fictitious 16th century
engraver Meaume.
The three novels explicitly refer to art and are structured on internal laws, which more
closely resemble those of poetry and the visual arts than conventional narratives. They take the
form of fragmented and syncopated narratives, constructed by and laid out in a visual mode. The
latter is constituted by the juxtaposition of typographically and thematically independent
paragraphs – blocs or fragments –, whose unity resides in the harmony or counterpoint of their
juxtaposition. The chronological and syntagmatic construction of the ‘conventional’ novel is
replaced by a paradigmatic dynamic that assembles and juxtaposes the image-blocs according to
the laws created, governed by the signifier's materiality or by the principle of variation. Central
to the mimetic and aesthetic work of the three novels is restoration of a pictorial or mental image,
ii
which sometimes manifests itself in an obsessive search for the mot juste. The three novels
confront the referent in their radical search for an ever-postponed meaning, which seems to
become fixed only in the aesthetic elsewhere of pictorial harmonies and poetic suggestions.
iii
PRÉFACE
Une première version des sections 3.3.1, 3.4, 3.4.1, 3.4.2 a paru dans Chiara Falangola,
« Espaces de la présence et de l’absence : un écho mallarméen dans L’Inauguration de la salle
des Vents de Renaud Camus », Voix plurielles, no 8.2, 2011, p. 172-179.
iv
TABLE DES MATIÈRES
ABSTRACT………………………………………………………………………........................
ii
PRÉFACE……………………………………………………………………………………….
iv
TABLE DES MATIÈRES……………………………………………………………………….v
REMERCIEMENTS / RINGRAZIAMENTI………………………………………………..viii
DÉDICACE………...……………………………………………………………………………xi
INTRODUCTION……………………………………………………………………………….
1
Le roman fragmentaire………………………………………………………………………………………………
1
Le Jardin des Plantes, L’Inauguration de la salle des Vents et Terrasse à Rome…………………………………..4
Le roman à images : objectifs, hypothèse et méthodologie………………………………………………………...
8
Claude Simon : état de la question…………………………………………………………………………………13
Renaud Camus : état de la question……………………………………………………………………………….
18
Pascal Quignard : état de la question……………………………………………………………………………...
21
La fragmentation littéraire dans quelques études contemporaines……………………………………………...24
La description : état de la question………………………………………………………………………………...
25
Pour penser l’écriture fragmentaire, la description, l’image…………………………………………………….
28
1. LE ROMAN À IMAGES…………………………………………………………………….
29
1.1 La description comme dominante de l’écriture fragmentaire du roman à images…………………………
30
1.2 Description et descriptif………………………………………………………………………………………...
33
1.2.1 Origines de la description……………………………………………………………………………………
33
1.2.2 Qu’est-ce qu’une description ?........................................................................................................................
34
1.2.3 Le descriptif selon Philippe Hamon : ses compétences et sa spécificité…………………………………….
35
1.2.4 Le descriptif selon Jean-Michel Adam et André Petitjean…………………………………………………..
36
1.2.5 La description créatrice………………………………………………………………………………………40
1.2.6 L’ordre du descriptif…………………………………………………………………………………………
41
v
1.3 La fragmentation………………………………………………………………………………………………..
42
1.4 Image, description et fragmentation : pour une méthodologie d’analyse…………………………………...
45
2. LE JARDIN DES PLANTES DE CLAUDE SIMON………………………………………
50
2.1 Lire Le Jardin des Plantes : mode d’emploi…………………………………………………………………...
52
2.2 Une fragmentation structurée………………………………………………………………………………….
56
2.3 L’éclatement typographique du Jardin des Plantes : la leçon de Novelli et l’écriture exhibitionniste…….
67
2.4 Gastone N… et son art : personnage, motif romanesque et exemple éthique et esthétique………………..
76
2.5 Le faire image de la fragmentation typographique : le « Tout sauf la pornographie » et l’urbanisme
textuel………………………………………………………………………………………………………………..
85
2.6 Contraste chromatique et contraste mélancolique……………………………………………………………
98
2.7 Du rose au noir : une image de l’Histoire et du Temps……………………………………………………..
106
3. Je ne pourrai jamais remercier assez mon directeur, le Professeur Ralph Sarkonak, dont la
présence a été constante et déterminante pendant les cinq dernières années. Merci d’avoir cru en
moi et en mes idées, et de m’avoir guidée de manière sûre, mais discrète. Surtout, merci pour les
rencontres ponctuelles dans son bureau, durant lesquelles, toujours avec la même attention, il a
su partager mon enthousiasme, éloigner mes doutes et affronter les moments de stagnation. Un
merci du fond du cœur au Professeur André Lamontagne pour sa lecture patiente et attentive de
ma thèse, pour les annotations à travers lesquelles mon écriture a acquis une rigueur certaine, et
pour les inestimables opportunités d’emploi qu’il m’a offertes dans le département. Un merci
particulier au Professeur Carlo Testa, dont les conseils et l’aide sont antérieurs à mon arrivée à
UBC. Je le remercie pour l’enthousiasme avec lequel il a accueilli mon projet de recherche, en
me rappelant tout ce que la fragmentation et la description doivent au XIXe siècle.
viii
RINGRAZIAMENTI
« Dopo notte, atra e funesta,
splende in Ciel più vago il sole,
e di gioja empie la terra;
Mentre in orrida tempesta
il mio legno è quasi assorto,
giunge in porto, e’llido afferra. »
Ariodante
Grazie a tutte le persone, lontane e vicine, che mi hanno ispirata, sostenuta e aiutata in questa
tappa così importante della mia vita.
Non potrò mai ringraziare abbastanza il mio relatore, il Professor Ralph Sarkonak, la cui
presenza è stata costante e determinante in questi cinque anni. Grazie per aver creduto in me e
nelle mie idee, per avermi offerto una guida sicura, ma discreta, e, soprattutto, grazie per gli
immancabili incontri nel suo ufficio, durante i quali, con la stessa delicatezza, ha sempre saputo
condividere il mio entusiasmo, mitigare i miei dubbi e affrontare i momenti di stallo. Un grazie
di cuore al Professor André Lamontagne per la sua paziente e attenta lettura della tesi, per le
annotazioni attraverso le quali la mia scrittura ha acquisito un rigore sicuro e per le inestimabili
opportunità lavorative offertemi nel dipartimento. Un ringraziamento speciale al Professor Carlo
Testa, la cui guida e il cui aiuto sono arrivati ancora prima del mio sbarco alla UBC. Lo ringrazio
per l’entusiasmo con cui ha accolto il mio progetto di tesi e lo ha sempre sostenuto, ricordandomi
tutto quello che la descrizione e la frammentazione devono all’Ottocento.
Grazie alle mie carissime amiche del dipartimento per aver condiviso gioie e dolori della
vita da graduate students, e della vita in generale… Un grande grazie al mio angolo di casa qui a
Vancouver, zia Almas, e ai suoi preziosi consigli in questi anni. Grazie a Jonathon per aver
sopportato e consolato i malumori e lo stress casalingo delle fatiche dottorali e per l’amicizia che
continua a dimostrarmi. Grazie a tutti gli amici di Roma e alle amiche nella cara Francia per
ix
essere stati sempre presenti anche con nove ore di fuso orario. Grazie ad Alessandro per avermi
ricordato al momento giusto che la letteratura è cosa mia.
Grazie alla mia famiglia per essere fiera di me sempre e comunque e per aver sostenuto la
scelta di andare all’estero con amore e comprensione. Grazie alla mia nonnina e a zia Anita e alla
loro costante benevola presenza telefonica. Grazie a mia sorella per essere sempre la persona più
vicina, nonostante la dolorosa distanza. Grazie a mio padre per tutte le risate che mi ha regalato e
per la dolcezza e la sensibilità con cui mi ha aiutata nei momenti difficili. Ed infine, grazie a mia
madre (anche se le parole non bastano) senza cui non sarei la donna che sono. Grazie di tutti i
sacrifici fatti, delle lezioni private d’inglese e di francese e per avermi insegnato il valore
dell’indipendenza e dello studio.
x
Dédicace
Alla mia famiglia…
xi
INTRODUCTION
« Je commence à écrire en tirant un bout de ficelle et puis il
se produit cette chose qui est, je crois que tous ceux qui ont
écrit le sentent, l’image mentale, le souvenir appelle un
mot, ce mot lui-même suscite des images… »
Claude Simon1
Le roman fragmentaire
Au lendemain de la Deuxième Guerre mondiale, la mise en cause des procédés du roman
traditionnel, amorcée par le modernisme anglais et français2, s’aiguise lorsque nous entrons dans
ce que Nathalie Sarraute a appelé « l’ère du soupçon »3. Le roman totalisant, qui prétendait à la
vérité en faisant appel à des critères de continuité, de causalité et de chronologie, « a vu le temps
cesser d’être ce courant rapide qui poussait en avant l’intrigue pour devenir une eau dormante au
fond de laquelle s’élaborent de lentes et subtiles décompositions » 4 . Tandis que, jusqu’au
tournant du XXe siècle, la notion de fragment avait été traditionnellement associée à la pensée
philosophique, à l’écriture aphoristique ou, encore, à la poésie, l’Ulysses de James Joyce
inaugure un type romanesque voué à la discontinuité, et marque le point de départ d’une pratique
et d’une théorie littéraires qui envisagent l’existence et la pensée humaines comme étant vouées
à la discontinuité, voire au fragmentaire5.
1
Claude Simon, « Apostrophes » dans Les Chemins de la création, Entretien télévisé avec Bernard Pivot, vendredi
23 septembre 1981, nous soulignons.
2
Par exemple : Édouard Dujardin, James Joyce, Virginia Woolf, Marcel Proust et André Breton.
3
Nathalie Sarraute, L’Ère du soupçon (1956), Paris, Gallimard, 1972. C’est un texte théorique qui rassemble quatre
essais écrits à partir de 1947.
4
Ibid., p. 80.
5
Voir, par exemple, Christopher A. Strathman, Romantic poetry and the fragmentary imperative : Schlegel, Byron,
Joyce, Blanchot, Albany, State University of New York Press, 2006.
1
Surtout depuis la deuxième moitié des années 70, le fragmentaire a connu un intérêt accru
dans la production littéraire. Des œuvres telles que Roland Barthes par Roland Barthes (1975) et
Fragments d’un discours amoureux (1977) de Roland Barthes, ou Enfance (1983) de Nathalie
Sarraute, qui mettent en jeu une pluralité de voix énonciatives, remettent en question la
représentabilité d’un moi univoque dans un discours cohérent et linéaire à la première personne.
La forme fragmentaire a permis aux deux écrivains de jouer avec la première personne, sans
l’assumer jusqu’au bout. En effet, celle-là est multipliée dans les différents je d’une énonciation
toujours recommencée.
Parallèlement, Maurice Blanchot, figure à part dans le panorama théorique et littéraire
français, se nourrit des concepts du fragmentaire et du neutre depuis les années 60, et fournit des
outils philosophiques pour en comprendre les enjeux. Non seulement il discute l’exigence
fragmentaire – comme esthétique nécessaire après la fin de l’humanisme et du logos,
interrogeant ainsi le monde et l’écriture – dans ses réflexions théoriques sur l’expérience
littéraire6, mais il la pratique également dans ses romans7, où l’écriture du récit et la voix
énonciative, toujours interrompues, ne sont livrées qu’en train de se faire. L’œuvre de Blanchot
permet d’approcher un enjeu différent de l’écriture fragmentaire par rapport à celui des
« autobiographies » de Sarraute et de Barthes. La réflexion sur le fragmentaire qui a intéressé le
XXe siècle ne se limite donc pas à la saisie du moi, mais se radicalise dans la problématisation de
la possibilité de représenter quelque référent que ce soit. Le recueil d’écrits L’Écriture du
désastre8 de Blanchot incarne dans son titre même l’impossibilité de la représentation après
Auschwitz : le génitif du titre au sens double garde la trace du désastre historique et humaniste et
6
Maurice Blanchot, L’Entretien infini, Paris, Gallimard, 1969.
7
Par exemple : L’Attente, l’oubli, Paris, Gallimard, 1962 ; Le Pas au-delà, Paris, Gallimard, 1973.
8
Maurice Blanchot, L’Écriture du désastre, Paris, Gallimard, 1980.
2
suggère le désastre référentiel d’une écriture incapable d’une réponse, éthique ou esthétique, face
à l’irreprésentable. Dans L’Entretien Infini 9 , Blanchot relie l’exigence fragmentaire à
l’énonciation du Neutre. N’étant pas performatif, ce dernier déstabilise la parole et la pensée :
« Neutre sera l’acte littéraire qui n’est ni d’affirmation, ni de négation et (en un premier temps)
libère le sens comme fantôme, hantise, simulacre de sens. »10 Hors de toute pensée dialectique,
l’écriture fragmentaire permet le « dis-cursus » qui s’oppose au discours dominant, au logos et
permet une parole toujours double, le plus souvent, paradoxale.
Depuis les années 80, la critique littéraire n’a pas cessé d’étudier le fragmentaire. En
1981, le New York Literary Forum11 a consacré au fragmentaire deux volumes qui portent sur les
formes de la discontinuité dans le modernisme, dans la tradition orale, en poésie, en sculpture et
dans le cinéma. En France, la critique relie une certaine production française et francophone, du
Nouveau Roman jusqu'à l’extrême contemporain, au concept de fragmentaire12. L’exigence
fragmentaire a même été perçue comme étant l’emblème de la modernité, en tant que forme de la
rupture par excellence : « La question de l’exigence fragmentaire apparaît comme l’un des lieux
où s’opèrent la mutation, la crise de l’écriture et de son sujet. »13
9
Voir la note 6.
10
Blanchot, L’Entretien infini, op. cit., p. 448-9.
11
Lawrence D. Kritzman (éd.), Fragments : Incompletion and Discontinuity, New York Literary Forum, New York,
vols. 8-9, 1981.
12
Voir Ricard Ripoll (éd.), L’Écriture fragmentaire : théories et pratiques, Perpignan, Presses Universitaires de
Perpignan, 2002. Entre autres, on peut y trouver des études sur Maurice Blanchot, Antonin Artaud, Jean-Marie
Gustave Le Clézio, Samuel Beckett, Claude Simon, Georges Perec et Kateb Yacine.
13
Ginette Michaud, Lire le fragment : transfert et théorie de la lecture chez Roland Barthes, Montréal, Hurtubise,
1989, p. 9.
3
Le Jardin des Plantes, L’Inauguration de la salle des Vents et Terrasse à Rome
Dans un article de 1997, Dominique Viart décrit le panorama des écritures contemporaines
comme la somme de deux passés du roman : l’un traditionnel, l’autre formaliste. Le roman
contemporain pratiquerait la recherche formelle et l’expérimentation, d’un côté, et il renouerait
avec le récit et l’expression du sujet, de l’autre14. Les trois romans qui constituent le corpus de
cette étude, Le Jardin des Plantes (1997) de Claude Simon, L’Inauguration de la salle des Vents
(2003) de Renaud Camus et Terrasse à Rome (2000) de Pascal Quignard, correspondent à cette
définition. Ces trois œuvres affichent une réaction à la forme romanesque traditionnelle, mais ne
s’inscrivent pas dans une lignée formaliste purement autoréflexive, « définitivement [coupée] du
réel et du monde, du sujet et de son émotion ou de ses expériences »15. Tout en explorant de
nouvelles formes romanesques qui contestent le récit linéaire et chronologique et la notion d’un
personnage psychologiquement construit, ces romans mettent en œuvre et problématisent un type
de narration qui cherche la signification et se rapporte au référent. La forme fragmentaire des
trois romans à l’étude – qui prennent le relais du roman des années 50 et 60 – est, peut-être, « en
train de détruire […] tout l’appareil désuet qui assurait sa puissance [comme] une de ces
réactions morbides par lesquelles un organisme se défend et trouve un nouvel équilibre »16.
Dans les romans de Simon et de Camus, il s’agit d’épisodes autobiographiques, tandis
14
Voir Dominique Viart, « Mémoires du récit. Questions à la modernité » dans Écritures contemporaines I :
mémoires du récit, La Revue des Lettres Modernes, 1997, p. 3-27.
15
Selon Dominique Viart, le formalisme du Nouveau Roman avait donné le pouvoir « aux mots dont les jeux de
dissémination, d’analogie, de relance et de rupture soutiennent la paradoxale continuité du texte », ouvrant, ainsi,
une voie romanesque « vouée à toutes les formes possibles d’expérimentation » et coupée « définitivement du réel et
du monde, du sujet et de son émotion ou de ses expériences », Ibid., p. 4-5.
16
Nathalie Sarraute, op. cit., p. 94 : « Le soupçon […] est une de ces réactions morbides par lesquelles un organisme
se défend et trouve un nouvel équilibre. Il force le romancier à s’acquitter de ce qui est, dit Philip Toynbee,
rappelant l’enseignement de Flaubert, ‘‘son obligation la plus profonde : découvrir de la nouveauté’’, et l’empêche
de commettre ‘‘son crime le plus grave : répéter les découvertes de ses prédécesseurs’’ ».
4
que Quignard joue avec un passé baroque à la troisième personne. Dans Le Jardin des Plantes,
Simon combine son vécu personnel avec l’Histoire, les arts visuels et l’écriture de Proust et de
Dostoïevski, pour n’en citer que quelques-uns. De même, Camus dans L’Inauguration orchestre
des événements autobiographiques qui traitent de l’amour, des voyages, de la maladie, de
l’écriture avec des représentations artistiques. Claude Simon et Renaud Camus textualisent la
problématique du moi et du sujet à travers l’impossibilité de la nomination, et aussi, chez Camus,
grâce à la multiplication des noms pour chacune des dramatis personae. De son côté, Pascal
Quignard invente l’histoire de Meaume le graveur, en l’enchâssant dans le cadre de la vie errante
des artistes dans l’Europe du XVIIe siècle.
Le Jardin de Plantes est le plus fragmentaire des romans de Claude Simon : la
fragmentation n’y est pas que thématique ou narrative, mais aussi typographique17. Dans la
première partie du roman, l’alternance blanc / écriture n’est pas seulement verticale, mais aussi
horizontale et transversale. La mise en page rejoint les possibilités spatiales du collage dans la
juxtaposition des colonnes parallèles ou de divers blocs narratifs juxtaposés les uns aux autres
sur la même page18. De plus, la fragmentation s’étend à l’espace et au temps et, par conséquent,
aux thèmes. Les catégories diégétiques sont éclatées dans une pluralité de contextes énonciatifs
allant des Flandres de la Deuxième Guerre mondiale au Kazakhstan de 1986.
L’Inauguration de la salle des Vents est un roman autofictionnel, dont les contraintes
constituent le squelette structural du livre et imposent la forme fragmentaire au roman, aux
niveaux stylistique, spatial, temporel et thématique. Chaque fragment, chaque bloc narratif du
17
La citation de Montaigne en exergue du livre prépare le ton : « Aucun ne fait certain dessain de sa vie, et n’en
délibérons qu’en parcelles. […] Nous sommes tous de lopins et d’une contexture si informe et diverse, que chaque
pièce, chaque momant faict son jeu. »
18
Le terme bloc réfère à tout ensemble textuel typographiquement isolé – sur quatre ou deux côtés – par des blancs,
ensemble dont la longueur et le nombre de paragraphes sera variable, à distinguer des alinéas qui seront une
interruption typographique standard, à l’intérieur des blocs mêmes.
5
roman représente la combinaison d’un style et d’un thème différents. Les différentes lignes de
récit couvrent un arc temporel d’une trentaine d’années, l’action se déroulant du Brésil à la
Grèce.
Terrasse à Rome est un roman bref narrant la vie d’un graveur lorrain du XVIIe siècle qui
erre à travers l’Europe. La division en chapitres pourrait faire penser à un récit traditionnel, mais
la narration ne suit la chronologie que du chapitre II au chapitre VII, avant de continuer dans la
juxtaposition de chapitres décousus. Ces derniers sont constitués par des ekphraseîs 19 de
gravures, des descriptions20, des flashs d’images et des pensées, ou du discours direct touchant à
la maxime ou au monologue, comme dans l’incipit du roman, où le protagoniste graveur
s’adresse à un « leur »21 indéfini et résume chronologiquement ses propres errances.
Les trois romans se caractérisent par une narration discontinue, marquée au niveau
typographique par des blancs entre les blocs narratifs, qui ne suit pas un ordre linéaire et
chronologique. La discontinuité de ces livres prend la forme d’un récit fragmentaire et syncopé,
dont l’unité semble résider dans l’harmonie ou le contrepoint de la juxtaposition des blocs
descriptifs, plutôt que dans la succession des épisodes enchaînés et des sommaires. Ce qui
travaille l’écriture de ces textes est l’impossible représentation de l’existence et de la réalité,
19
Philippe Hamon, La Description littéraire. Anthologie de textes théoriques et critiques, Paris, Macula, 1991, p. 8 :
« Le terme ekphrasis […] désigne la description littéraire (qu’elle soit intégrée ou non à un récit) d’une œuvre d’art
réelle ou imaginaire – peinture, tapisserie, architecture, bas-relief, coupe ciselée, etc. – que va rencontrer tel ou tel
personnage dans la fiction. » Voir aussi Sophie Rabau, Fictions de présence. La narration orale dans le texte
romanesque du roman antique au XXe siècle, Paris, Honoré Champion, « Bibliothèque de littérature générale et
comparée », 2000, p. 63 : « [U]n discours qui nous fait faire le tour (periégèmatikos) de ce qu’il montre (to
dèloumenon) en le portant sous les yeux avec évidence (enargôs) ». Pour une étude sur l’ekphrasis et le glissement
de sens de l’antiquité à nos jours, voir Janice Hewlett Koelb, The poetics of description : imagined places in
European Literature, New York, Palgrave Macmillan, 2006.
20
Trésor de la langue française, Paris, Éditions du Centre National de la Recherche Scientifique, 1978 :
« Description, subst. Fém. : Action de décrire […]. – En partic. Développement littéraire portant sur des réalités
concrètes, souvent considéré comme un exercice d’école. »
21
Pascal Quignard, Terrasse à Rome, Paris, Gallimard, 2000, p. 9-10 : « Meaume leur dit : ‘Je suis né l’année 1617
à Paris. […] Maintenant je vis à Rome où je grave ces scènes religieuses et ces cartes choquantes. Elles sont en
vente chez le marchand d’estampes à l’enseigne de la Croix noire via Giulia.’ »
6
représentation qui doit composer avec l’imperfection et la fragmentation de la mémoire et de la
perception humaines. La restitution de la perception d’une image picturale ou mentale, à travers
la recherche parfois obsédante du mot juste, semble être au centre du travail mimétique et
esthétique des trois œuvres. De plus, l’écriture se fait souvent autoréflexive et le processus de la
création est un des leitmotive de ces romans, processus qui est souvent questionné par le biais des
arts plastiques (les tableaux de Gastone Novelli dans Le Jardin ; la Carte des Vents et la Barque
des Ombres de Jean-Paul Marcheschi dans L’Inauguration ; les gravures et les dessins de
Meaume et les peintures de Claude Gellée dans Terrasse).
En définitive, les trois romans semblent partager une esthétique commune : un récit
fragmenté, mais sous une « appellation romanesque », où abondent des descriptions, des
ekphraseîs, des images mentales, des souvenirs visuels, se confrontant avec les défaillances du
langage à dire et représenter le réel. Pascal Quignard, lors d’un entretien avec Mireille CalleGruber, en parlant de l’influence de Claude Simon sur sa propre écriture, a esquissé l’idée du
fragmentaire :
Nous n’avons pas imité des formes antérieures. Alors bien sûr on est réputé trop difficiles, incataloguables.
[…] Le moderne comme absence de liaison. Comme refus de la liaison. Comme refus du lien – même social.
[…] Le refus du remplissage. Le refus de l’unité. Le refus de la complétude. L’anti couture. Le cut-up pour
moi c’était une pratique américaine. […] Cut up pour moi cela veut dire anti puzzle. Je veux défendre Claude
Simon sur ce point. L’image du puzzle, autant elle est vraie et belle pour Georges Perec, pour un Oulipien,
pour un orphelin, autant elle est fausse pour Claude Simon même s’il l’emploie lui-même à plusieurs
reprises. […] Mais chaque pièce chez Claude Simon n’est encrantable nulle part. Chez Claude Simon il
s’agit d’une véritable fragmentation.22
22
Pascal Quignard, « Ce que vous a apporté Claude Simon » dans Mireille Caille-Gruber (éd.), Les Tryptiques de
Claude Simon ou l’art du montage, Paris, Presses Sorbonne Nouvelle, 2008, p. 207-208.
7
À la différence de la production néo-romanesque des années 60, qui refusait toute
servitude au référent, Le Jardin des Plantes, L’Inauguration de la salle des Vents et Terrasse à
Rome se confrontent au référent, dans une recherche radicale du sens. Dans la « pérennité du
soupçon »23, ces romans voient le retour du sujet, du vécu, de l’histoire et, en explorant les
possibles descriptifs du récit, ils mettent en question les rapports entre l’art, le réel et le sujet
remémorant. Selon Viart, la mise en question du genre des romans publiés dans les années 80 et
90 est encore plus radicale que celle du Nouveau Roman, car « en perdant de leur radicalité
théorique »24, ces œuvres vont jusqu’à attaquer l’enjeu de tout récit : la représentation. Dans les
trois œuvres à l’étude, la question de la mimésis se problématise encore plus, le rapport au
référent se complique en prenant un air existentiel : comment représenter le monde, les êtres, soimême ? Où trouver le sens du vécu ? Comment produire du sens dans le passage du vécu à la
mise en récit mimétique ?
Le roman à images : objectifs, hypothèse et méthodologie
La notion de roman à images, appliquée aux trois romans à l’étude, voudrait rendre compte des
romans fragmentaires qui ne racontent presque pas, mais tendent à la visualisation, et où la
description devient une matrice narrative qui fait image. Le mode descriptif semble constituer
l’élément structurant, la matière même de l’écriture de la discontinuité romanesque. Notre
objectif sera d’examiner les divers modes de tissage textuel d’une écriture fragmentaire,
orchestrée dans une forme narrative publiée sous l’appellation de roman, d’étudier les constantes
23
Dominique Viart, op. cit., p. 11.
24
Ibid.
8
structurelles, formelles de ces œuvres discontinues qui, néanmoins, persévèrent dans la voie du
genre romanesque. Nous nous proposons de définir une écriture fragmentaire propre au roman,
en tant qu’écriture structurée par le descriptif, agencée par et sur un mode visuel.
L’écriture fragmentaire des trois romans, dans sa mise en question du récit traditionnel,
problématise-t-elle la question de la représentabilité, en se structurant sur un mode descriptif,
dont les lois internes relèvent plus du poétique que du narratif ? La construction causale,
chronologique et syntagmatique du narratif traditionnel y est-elle remplacée par une dynamique
paradigmatique, qui assemble et juxtapose des blocs-images narratifs selon des lois réglées sur la
matérialité du signifiant ?
Au niveau méthodologique, notre approche sera hétérogène pour éviter toute restriction
idéologique sur ce phénomème protéiforme qu’est la littérature ; car nulle théorie, dans sa
singularité, ne peut rendre compte adéquatement de la complexité des trois romans (et peut-être
de tout roman tout court). Parallèlement à une microlecture des extraits cités pour chaque roman,
les théories qui vont orienter la perspective de notre analyse critique seront multiples et auront
tendance à se superposer.
D’un côté, plusieurs théories de la description donnent l’empreinte à notre approche : la
description productive chez Ricardou, la description comme retardement du récit chez
Chklovski25 ou comme « élément principal » 26 justifiant la fable chez Tynianov, et comme pause
25
Viktor Chklovski, Sur la théorie de la prose (1929), trad. G. Verret, Lausanne, L’Age d’homme, 1973.
26
Claude Simon cite Tynianov dans le Discours de Stockholm dans Œuvres, Alistair B. Duncan et Jean H. Duffy
(éds.), Paris, Gallimard, « Bibl. de la Pléiade », 2006, p. 892-893 : « Et de son côté, dans un article publié à
Leningrad en 1927 et intitulé ‘De l’évolution littéraire’, l’essayiste russe Tynianov écrivait : ‘En gros, les
descriptions de la nature dans les romans anciens, que l’on serait tenté, du point de vue d’un certain système
littéraire, de réduire à un rôle auxiliaire de soudure ou de ralentissement (et donc de rejeter presque), devraient, du
point de vue d’un autre système littéraire, être considérés comme un élément principal, parce qu’il peut arriver que
la fable ne soit que motivation, prétexte à accumuler des descriptions statiques.’ »
9
chez Genette27. Nous avons retenu surtout le livre Du descriptif de Philippe Hamon. Dans cet
essai, le critique étudie les diverses sortes d’énoncés descriptifs et en constitue une typologie, en
différenciant la description, forme stylistique particulière, du descriptif, dominante structurelle
de textes littéraires et non-littéraires28. Le descriptif n’assimile pas les descriptions à leurs
référents, peu importe qu’il s’agisse d’un paysage ou d’un portrait ; au contraire, il est question
de trouver « un type particulier de fonctionnement et dominant dans l’organisation textuelle d’un
énoncé »29. Dans le descriptif, « l’anaphorique, le paradigmatique, la redondance, la mise en
mémoire, l’archivage du déjà lu et du déjà vu »30 sont à l’œuvre. Le descriptif est aussi une façon
d’agencer l’espace textuel, de manière tabulaire, horizontale, et une façon de penser la langue :
une pensée utopique qui conçoit la langue comme nomenclature. Ce rapport particulier à l’espace
et au lexique, ainsi que cette idée d’un référent a priori fragmenté, se rapprochent de notre
hypothèse qui voit la description comme l’élément structurant des romans fragmentaires à
l’étude.
En ce qui concerne l’étude des ponts narratifs entre les blocs, de la logique de l’écriture
comme enchaînement d’images, je me servirai des aperçus de Michel Bertrand dans Langue
romanesque et parole scripturale : essai sur Claude Simon31. Cet ouvrage s’inscrit dans le
sillage des théories de Jean Ricardou, telles qu’il les a esquissées dans Problèmes du Nouveau
27
Gérard Genette, Figures III, Paris, Seuil, 1972.
28
Philippe Hamon, Du descriptif, Paris, Hachette, 1993 (troisième édition, mise à jour de Introduction à l’analyse
du descriptif, 1981).
29
Ibid., p. 88.
30
Ibid., p. 5.
31
Michel Bertrand, Langue romanesque et parole scripturale : essai sur Claude Simon, Paris, PUF, 1987.
10
Roman32 et Le Nouveau Roman33 , concernant le scripteur et l’écriture scripturale. Bertrand
explique que :
[L]’écriture scripturale remplace une esthétique de la reproduction par une pratique de la production.
Produire, donc, consiste à mettre en œuvre une matière et à la transformer en l’organisation d’un texte. Cette
matière peut appartenir au texte lui-même ou lui être extérieure. […] La logique scripturale ne respecte ni les
contraintes chronologiques, ni les contingences événementielles, ni les lois psychologiques ; elle procède
essentiellement au moyen d’opérations transitoires qui assurent les bifurcations du récit. Les termes, « nœuds
de significations », déterminent conjointement la paradigmatique et la syntagmatique de l’espace textuel.
L’ensemble des phénomènes de génération du texte constituent la paradigmatique romanesque ; l’ensemble
des opérations transitaires assure la syntagmatique du roman. […] Le roman scriptural se caractérise par la
succession et l’entrecroisement de séquences apparemment sans lien entre elles, en réalité solidement
articulées. Si le hiatus est formulé, c’est une procédure de continuité. Si le hiatus est passé sous silence, c’est
une procédure de discontinuité. […] Le roman scriptural invariablement les dissimule derrière telle ou telle
figure du discours.34
En pratique, les questions qui ont conduit cette recherche ont été les suivantes : une fois
le récit, la fiction et la chronologie éclatés, comment l’unité et l’homogénéité de ces romans
fragmentaires s’articulent-elles ? Avec la remise en cause des notions de totalité et d’harmonie,
s’agit-il d’une tabula rasa ou y a-t-il une recomposition à l’œuvre ? La description et ses effets
visuels, comme la capacité à figurer et à fixer de toute image, mettent-elles en place un dispositif
homogénéisant, permettant au texte fragmentaire de se lier et produire du sens ? Le Jardin,
l’Inauguration et Terrasse trouvent-ils leur liant, et leur matrice narrative, dans les images
qui les traversent ? Les traces de cette continuité de l’image à travers les blocs narratifs se
trouvent-elles dans les blancs, dans les jointures où se produit la rupture et où s’opère le
32
Jean Ricardou, Problèmes du Nouveau Roman, Paris, Seuil, 1969.
33
Jean Ricardou, Le Nouveau Roman, Paris, Ed. du Seuil, 1973.
34
Bertrand, op. cit., p. 61-63
11
passage ? Quelle est la logique structurante qui est à l’œuvre dans ces romans? Ensuite, nous
ferons un close-reading des textes, et, à travers une série de microlectures, nous en analyserons
la discontinuité et le descriptif. Au cours de ce processus seront relevées les constantes
stylistiques et figuratives des différents blocs narratifs. Finalement, nous nous pencherons sur les
blancs entre les fragments, sur les jointures textuelles où s’articulent les ruptures et la continuité
en même temps. En faisant cela, nous nous proposons d’étudier la logique et l’articulation des
blocs textuels dans leur totalité : au lieu d’insister sur l’inachèvement et sur la discontinuité, nous
allons enregistrer les manières d’orchestration des différents fragments romanesques et les effets
d’harmonie ou de contrepoint entre eux. Puisque dans l’écriture fragmentaire « la destruction de
l’axe syntagmatique touche la progression narrative et la progression logique de l’énoncé »35,
notre attention portera sur l’axe paradigmatique des romans : nous allons suivre l’harmonie dans
le texte et non pas la mélodie du texte. Dans « Note sur le plan de montage de La Route des
Flandres »36, Claude Simon explique le processus de création de ce roman en tant qu’assemblage
de « tableaux détachés » selon un système de couleurs, qui a permis « que tel ou tel thème, tel ou
tel personnage apparaisse ou réapparaisse à des intervalles appropriés »37. Dans un sens, peutêtre pas opposé, mais au moins dissonant, nous relèverons les procédés qui tissent la trame du
Jardin des Plantes, de L’Inauguration de la salle des Vents et de Terrasse à Rome, en cherchant
la continuité dans la discontinuité, en relevant la dissémination des traces du signifiant, des mots
ou des images ou des effets qui reviennent, traces et effets inscrits dans la matérialité des textes
eux-mêmes et non pas dans un système extérieur à ceux-ci.
35
Françoise Susini-Anastapoulos, L’Écriture fragmentaire. Définitions et enjeux, Paris, PUF, 1997, p. 27.
36
Claude Simon, « Note sur le plan de montage de La Route des Flandres » dans Mireille Calle (éd.), Claude Simon.
Chemins de la mémoire, Sainte Foy, Le Griffon d’argile, 1993, p. 185-6.
37
Ibid., p. 185.
12
Ce qui semble relier et rendre homogène le corpus de notre recherche, ce sont, alors
l’écriture fragmentaire et la succession d’images et de tableaux verbaux livrés sur un mode
descriptif. Dans ces trois romans fragmentaires, nous verrons la description, traditionnellement
une pause dans l’écoulement narratif, se faire paradigme de l’interruption du récit et de la
matrice narrative en même temps. La prédominance du descriptif, par rapport au narratif, dans
l’écriture romanesque souligne un double paradoxe : celui du discontinu qui fait œuvre et celui
d’un mode verbal qui aspire au non-verbal et au pictural. Notre hypothèse soutient que Le Jardin
des Plantes, L’Inauguration de la salle des Vents et Terrasse à Rome bouleversent leur rapport à
la narrativité en utilisant des procédés empruntés à la poésie, par exemple, la description,
l’attention au détail, le sens de la composition des parties dans l’immédiateté, le pouvoir
métonymique et analogique du langage. La visualisation qui produit l’image mentale pousse la
narration au-delà du langage, du côté de la suggestion et de la remontée perpétuelle du sens.
Claude Simon : état de la question
Plusieurs monographies ont cerné l’œuvre complexe du lauréat du Prix Nobel de littérature de
1985. À partir de 1994, La Revue des Lettres Modernes lui a consacré une série qui compte déjà
six numéros, et, dès 2005, l’Association des Lecteurs de Claude Simon publie la revue annuelle
Cahiers Claude Simon, qui compte aujourd’hui sept numéros.
Le caractère fragmentaire et visuel des romans simoniens est d’une évidence éclatante, et
il est très difficile de ne pas rencontrer le mot « fragmentaire » dans une étude consacrée à
Claude Simon. L’auteur lui-même, dans des entretiens ou dans ses textes théoriques, en parle en
ces termes : « Nous sommes pleins d’images, de souvenirs, de sensations (ou plutôt de fragments
13
de tout cela) qui se mêlent et se combinent dans notre esprit, le problème est de trouver comment
ordonner ces combinaisons. »38 Écrire veut donc dire composer avec des fragments : « Cela se
fait en tâtonnant : savoir si on doit mettre ce morceau à droite, ou à gauche, ou après ; chercher
ce qui peut s’harmoniser, jouer, contraster, comme en peinture ou en musique. »39
Il existe plusieurs ouvrages consacrés entièrement ou partiellement au fragmentaire et
aux images visuelles et picturales chez Claude Simon. Michel Bertrand40 analyse l’écriture
scripturale chez Claude Simon dix ans avant la publication du Jardin des Plantes et se penche
aussi sur les différents types de fragmentation dans l’écriture romanesque de Simon, mais ceuxci ne constituent pas l’objet spécifique de l’analyse de son livre. Jean-Claude Vareille, dans
Fragments d’un imaginaire contemporain : Pinget, Robbe-Grillet, Simon41, relève l’importance
des topoï de la fenêtre et de la chambre créatrice, celle de l’opéra, de la sculpture et de la
musique, mais cet essai a paru huit ans avant la publication du Jardin des Plantes.
Quatre études consacrées à l’image chez Claude Simon sont en partie proches de l’objet
de notre recherche : L’Effet d’image : essai sur Claude Simon de Pascal Mougin42, Écrire en
peintre de Brigitte Ferrato-Combe43, Reading Between the Lines : Claude Simon and the visual
arts de Jean H. Duffy44, et l’ouvrage collectif Les Images chez Claude Simon : des mots pour le
38
Claude Simon, « J’ai deux souvenirs d’intense fatigue : la Guerre et le Nobel », entretien avec Marianne Alphant,
Libération, 6 janvier 1988, p. 29.
39
Claude Simon, « Et à quoi bon inventer ? », entretien avec Marianne Alphant, Libération, 31 août 1989, p. 24.
40
Bertrand, op. cit.
41
Jean-Claude Vareille, Fragments d’un imaginaire contemporain : Pinget, Robbe-Grillet, Simon, Paris, Corti,
1989.
42
Du titre de l’essai de Pascal Mougin : L’Effet d’image : essai sur Claude Simon, Paris, L’Harmattan, 1997.
43
Brigitte Ferrato-Combe, Écrire en peintre. Claude Simon et la peinture, Grenoble, Ellug, 1998.
44
Jean H. Duffy, Reading between the lines : Claude Simon and the visual arts, Liverpool, Liverpool University
Press, 1998.
14
voir45. Mougin étudie la comparaison dans la production romanesque simonienne et surtout par
rapport à la création des images mentales de la débâcle sur la Meuse, images qui, selon le
critique, donnent au lecteur l’illusion d’y être. Le Jardin des Plantes n’est pas l’objet d’Écrire en
peintre : « Quant au Jardin des Plantes, malgré l’indication générique ‘roman’ sur la couverture,
[Simon] semble hésiter à nouveau [comme dans La Corde raide] entre fiction, autobiographie et
essai critique (récemment paru chez Minuit, ce texte ne fera pas l’objet d’analyses très
approfondies). »46 Dans cet essai, Ferrato-Combe ne discute presque pas les rapports entre
l’écriture de Simon et la peinture de Novelli, comme elle le fait au contraire pour celle de
Cézanne, Picasso, Van Gogh et Dubuffet, mais elle y reviendra en 2004 dans « De Cézanne à
Novelli, la figure du peintre dans l’œuvre de Claude Simon »47, et en 2005 dans « Une rêverie
sur le signe » 48. Dans l’essai de 1997, elle discute les propos de Simon lui-même sur la
description et se concentre sur la description dans La Bataille de Pharsale. Mária Minich Brewer
discute brièvement l’art de Novelli comme un paradigme de l’incommensurabilité : « The
condition and the possibility of art and literature may itself be thought of as that fragile and
paradoxical (un)common ground of incommensurability as such. »49 L’étude Reading Between
the Lines50 de Duffy examine les relations entre l’œuvre de Claude Simon et les œuvres de
45
Stéphane Bikialo et Catherine Rannoux (éds.), Les Images chez Claude Simon : des mots pour le voir, La Licorne
71, Presses Universitaires de Rennes, 2004.
46
Ferrato-Combe, op. cit., note 2, p. 6.
47
Brigitte Ferrato-Combe, « De Cézanne à Novelli, la figure du peintre dans l’œuvre de Claude Simon » dans
Bikialo et Rannoux (éds.), op. cit., http://licorne.edel.univ-poitiers.fr/document3204.php (consulté le 21/03/2010).
48
Brigitte Ferrato-Combe, « Une rêverie sur le signe », présentation et commentaire d'un inédit de Claude Simon, «
Novelli ou le problème du langage », Les Temps Modernes, nos. 628-629, novembre 2004 - février 2005, p. 86-92.
49
Mária Minich Brewer, « (In)Commensurabilities » dans H. Duffy et A. Duncan (éds.), Claude Simon: A
Retrospective, Liverpool, Liverpool University Press, 2002, p. 56.
50
Jean H.Duffy, Reading Between the Lines. Claude Simon and the Visual Arts, Liverpool, Liverpool University
Press, 1998.
15
quelques artistes ; en particulier, l’auteure focalise son attention sur les stimuli picturaux de
l’écriture simonienne, mais n’analyse pas en détail l’influence de la peinture de Novelli. Dans
l’ouvrage collectif Les Images chez Claude Simon. Des mots pour le voir51, les articles portent
sur le rapport entre lisible et visible, sur la composition des œuvres de Simon et sur Simon
photographe et cinéaste amateur.
Le numéro 4 de la Série Claude Simon de La Revue des Lettres Modernes, qui porte sur
« l’archive » comme leitmotiv et matrice narrative, se concentre, entre autres, sur les rapports
entre l’œuvre picturale et la narration, et sur la ressemblance du caractère fragmentaire des
ressources archivistes comme expérience humaine et représentation de celle-là. Dans
l’introduction du numéro, Ralph Sarkonak définit le référentialisme simonien comme
« mimétisme graphique », un « verbal [qui] devient iconique »52. Dans le numéro 5 de cette
Série, consacré aux Géorgiques, Sarkonak insiste sur les rapports entre les deux systèmes de
signes en tant qu’art post-Holocauste et sur la « constellation thématique et même formelle du
sens » 53 autour de Novelli, le peintre-résistant. De plus, le critique attribue l’extrême
fragmentation du Jardin des Plantes à la re-présentation « sous forme écrite [de] certaines
techniques picturales de Novelli »54. Dans la note de l’éditeur du même numéro, il souligne le
fait que la description chez Simon « dépasse le stimulus initial »55. Ce dépassement de la
description, nous le trouvons au seuil du poétique, comme Jean-Yves Laurichesse l’a déjà
51
Bikialo et Rannoux (éds.), op. cit.
52
Ralph Sarkonak, « L’Effet d’archive » dans Claude Simon 4, La Revue des Lettres Modernes, 2005, p. 15.
53
Ralph Sarkonak, « Claude Simon et la Shoah » dans Claude Simon 5, La Revue des Lettres Modernes, 2008, p.
214.
54
Ibid., p. 217.
55
Ralph Sarkonak, « Claude Simon, 1913-2005 » dans Claude Simon 5, op. cit., p. 5.
16
signalé pour Les Géorgiques 56 , ou comme ce que Lucien Dällenbach a appellé « le côté
Dostoïevski-Elstir de Simon »57.
En ce qui concerne la spatialité du texte, que ce soit celle du texte ou celle du référent,
Jan Baetens, Catherine Rannoux et Isabelle Serça ont discuté le montage et la disposition des
fragments des premières pages du Jardin des Plantes 58 ; et Mary Orr a donné un aperçu
intéressant du bricolage dans le roman : « […] through bricolage techniques, Simon
experimented more with the spatial form and a geography of the text than with fictional
reference. »59 C’est d’autant plus vrai que, dans Le Jardin des Plantes, il y a plusieurs vues
aériennes, dont la géographie rappelle la géométrie des blocs narratifs sur la page. Mais le
parallèle d’Orr n’arrive pas jusque là. Mária Minich Brewer, dans « (In)Commensurabilities »,
affirme que : « [Simon] expands that site and emblem of scientific ordering and classification [le
Jardin des Plantes] across continents, histories, public spaces and spaces of intimacy and
memory. »60 Dans « One Step Further : Claude Simon’s Photographies 1937-1970 »61, Mireille
Calle-Gruber a étudié le cadrage, les « gaps between them »62 des photographies de Simon ; c’est
56
Jean-Yves Laurichesse, « Une météorologie poétique : le génie du froid dans Les Géorgiques », dans Claude
Simon 5, op. cit., p. 135-160.
57
Lucien Dällenbach, Claude Simon, Paris, Seuil, 1988, p. 27.
| 11,959
|
46/hal-univ-rennes1.archives-ouvertes.fr-hal-02862266-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 5,140
| 7,846
|
THERAPIES HEADING : Pharmacologie clinique Les politiques de partage de données des financeurs d'essais cliniques en France Data sharing policies of funders of clinical trials in France
Politique de partage de
données Pauline Rollandoa,*, Céline Parcb, Florian Naudeta, Jeanne Fabiola Gabaa, c Univ Rennes, CHU Rennes, Inserm, CIC 1414 (centre d'investigation clinique de Rennes), 35000 Rennes, France ro of a b CHU Rennes, DRI (Direction de la recherche et de l'innovation), 35000 Rennes, France c REPERES (REcherche en Pharmaco-Epidémiologie et REcours aux Soins), 35000 Rennes, France -p Reçu le 11 octob
re 2019 ;
accepté le
24 février 2020
Le Guilloux, 35000 Rennes, France. re *Auteur correspondant. Centre d'investigation clinique, CIC 1414, CHRU Rennes, 2, rue Henri Summary lP Adresse e-mail : [email protected] (P. Rollando)
Aims.- The aims of this survey were to evaluate the percentage of French clinical trial funders Jo ur na with a data sharing policy, to describe their data sharing policies and, more generally, the transparency of the research they fund. Methods.- The different funders of clinical trials in France have been identified from 3 lists of tenders for clinical research projects: the internal list of the University Hospital Center (CHU) of Rennes, the list of the Interregional Group for Clinical Research and Innovation (GIRCI EST), the list of the portal for calls for projects in health research. Funders were contacted, first by email and then by phone (at least two email and / or phone reminders) to respond to an online survey via Google form. The questionnaire aimed to assess the existence of a sharing policy or not, as well as the way in which it was set up. Results.- Out of 190 funders contacted, 94 did not respond. 65 of the respondents were excluded because they did not fund clinical trials. Of the 31 funders included (including Direction générale de l'offre de soins [DGOS], Institut national contre le cancer [INCa], Groupement Interrégional de Recherche Clinique et d'Innovation [GIRCIs]), only 9 (29%) had implemented a data sharing policy. Among these nine funders, only one had a mandatory sharing policy and eight a policy supporting but not enforcing data sharing. Five allowed the use of budget lines dedicated to data sharing. Three reported granting data sharing incentives. Three had dedicated guidelines indicating a specific mode of sharing data (sharing on request and / or on a specialized platform) and specifying the type of data (individual patient data and ro of / or protocol and amendments). For all three, there were restrictions on sharing data to researchers only. Data sharing policies concerned 19% of the total financial (850,032,000 euros) of the 26 financiers who reported this information. Conclusion.- Despite -p international interest in clinical trial data sharing practices, clinical trials funders with a strong re data-sharing policy remain an exception in France. Résumé Objectifs.- Les objectifs de cette enquête étaient d'évaluer le pourcentage de financeurs d'essais cliniques français ayant une politique de partage de données et de décrire les grandes lignes de leurs politiques en matière de partage de données et, de manière plus générale, de transparence de la recherche. Méthodes.- Les différents financeurs d'essais cliniques en France ont été identifiés à partir de 3 listes d'appels d'offres de projet de recherche clinique : la liste interne du centre hospitalier universitaire (CHU) de Rennes, la liste du Groupement interrégional de ro of recherche clinique et d'innovation (GIRCI EST), la liste du portail des appels à projets de la recherche en santé. Les financeurs étaient contactés, d'abord par email puis par téléphone (au moins deux relances email et/ou téléphoniques) afin de répondre à un sondage en ligne via -p Google form. Le questionnaire visait à évaluer l'existence d'une politique de partage ou non, re ainsi que la manière dont elle était mise en place. Résultats.- Sur 190 financeurs contactés, 94 n'ont pas répondu et 65 ont été exclus car ne finançaient pas d'essais cliniques. Sur les 31 lP financeurs inclus (parmi lesquels la Direction générale de l'offre de soins [DGOS], l'Institut national contre le cancer [INCa], les Groupements interrégionaux de recherche clinique et Jo ur na d'innovation [GIRCIs]), seuls 9 (29 %) avaient mis en place une politique de partage de données issus d'essais contrôlés randomisés (ECR) financés. Parmi ces neuf financeurs, un seul avait une politique rendant le partage obligatoire et huit une politique encourageant le partage. Cinq permettaient l'utilisation de lignes budgétaires dédi au partage des données. Trois déclaraient octroyer des incitatifs au partage des données. Trois avaient des guidelines dédiées orientant vers un mode spécifique de partage de données concernant le modèle de partage (partage sur requête et/ou sur une plateforme spécialisée) et le type de données (données individuelles des patients et/ou protocole et amendements). Pour les trois, il y avait des restrictions vers un partage de données aux chercheurs uniquement. Le partage des données concernait 19 % du volume financier total (850 032 000 euros) des 26 financeurs nous ayant déclaré cette information. Conclusion.- Malgré l'intérêt au plan international pour les pratiques de partage des données d'essais cliniques, les financeurs ayant une réelle politique de partage de données restent une exception en France.
MOTS CLÉS
Jo ur na lP re -p ro of Essai clinique ; Partage de donnée ; Transparence de la recherche
Abrévi
ations
ANR
: Agence nationale de la recherche AO : appels d'offres APICIL : Association de retraites complémentaires pour l'industrie et le commerce lyonnais ARSEP : Aide à la recherche contre la sclérose en plaques ARSLA : Association pour la recherche sur la sclérose latérale amytrophique CHU : centre hospitalier universitaire CIC : centre d'investigation clinique CNRS : Centre national de la recherche scientifique -p DGOS : Direction générale de l'offre de soins ro of BMJ : British Medical Journal re DIP : données individuelles des patients ECR : essai contrôlé randomisé lP EFPIA: European Federation of Pharmaceutical Industries and Associations GIRCI : Groupement interrégional de recherche clinique et d'innovation Jo ur na ICMJE: International Committee of Medical Journal Editors INCa : Institut national du cancer INSERM : Institut national de la santé et de la recherche médicale PD : politique de partage PHRC : programme hospitalier de recherche clinique PHRC-I : programme hospitalier de recherche clinique inter-régional PHRC-K : programme hospitalier de recherche clinique en cancérologie PHRC-N : programme hospitalier de recherche clinique national :
Les promesses d'un partage responsable des données issues des essais contrôlés randomisés (ECR) sont majeures avec la possibilité de réaliser des méta-analyses sur données individuelles, des analyses secondaires et des réanalyses. Des initiatives par des journaux scientifiques internationaux comme le British Medical Journal (BMJ) ou Public Library Of Science Medicine ( LOS) [1] ont été entreprises, afin de faire du partage des données des essais randomisés une réalité. En juin 2017, l'International Committee of Medical Journal Editors (ICMJE) a défini de nouvelles règles en matière de partage de données [2] et incite les ro of chercheurs à spécifier un plan de partage des données dans leurs publications (c'est-à-dire à préciser les modalités fixées par la politique ICMJE pour un partage éventuel des données). Au-delà de ceux qui publient la recherche, ceux qui la financent ont un rôle clef dans -p l'établissement de cette nouvelle norme. Jo ur na Face à ces nouveaux standards internationaux, qu'en est-il des financeurs d'essais cliniques en France? Plusieurs associations de patients, des syndicats de médecins et Médecins du monde ont lancé un appel à l'Institut national de la santé et de la recherche médicale (INSERM) et au Centre national de la recherche (CNRS) pour améliorer la transparence autour des ECR [5]. Un plan national de science ouverte a été lancé le 4 juillet 2018 par le ministère de l'Enseignement supérieur, de la Recherche et de l'Innovation [6] visant, entre autre, à rendre obligatoire la diffusion ouverte des données de recherche issues de programmes financés par appels à projets sur fonds publics. Dans ce contexte, les objectifs de cette enquête étaient d'évaluer le pourcentage de financeurs français ayant une politique de partage de données parmi 6 ceux sélectionnés et de décrire les grandes lignes de leurs politiques en matière de partage de données et, de manière plus générale, de transparence de la recherche.
Méthodes
Nous avons enregistré le protocole avant le début de cette enquête sur l'Open Science Framework [7]. Les différents financeurs français ont été sélectionnés à partir de 3 listes d'appels d'offres de projet de recherche clinique distincts : ro of - la liste interne du centre hospitalier universitaire (CHU) de Rennes. La direction de la recherche clinique du CHU de Rennes tient une liste à jour des principaux appels à projets en recherche clinique et la diffuse auprès des enseignant-chercheurs du CHU ; -p - la liste du Groupement interrégional de recherche clinique et d'innovation (GIRCI re EST), qui est un portail commun aux 7 GIRCI répertoriant les informations sur les appels à lP projets de recherche en santé avec un moteur de recherche intégré permettant de faire le tri entre les subventions de recherche, les bourses post doctorales, doctorales, de Master et les prix Jo ur na récompensant des travaux réalisés. - la liste du portail des appels à projets de la recherche en santé, qui rassemble l'ensemble des appels à projets publics dans les domaines de la recherche translationnelle, clinique, et en santé publique. Il réunit neuf partenaires, lanceurs d'appel à projets de recherche dans ces domaines. À partir de ces trois listes d'appels d'offres de projet de recherche clinique, nous avons inclus les financeurs proposant des subventions de recherches en France. Les financeurs proposant uniquement des bourses et/ou des prix et/ou du financement de matériel n'étaient donc pas inclus. Les financeurs n'ayant pas de site web, ni de numéro de téléphone joignable, ni de contact e-mail référencié n'étaient pas inclus. Après un premier contact avec ces financeurs (ou en fonction des informations présentées sur leur site internet), étaient exclus ceux qui ne finançaient pas d'ECR. Au cours de l'étude, nous avons dû ajouter les critères d'exclusion suivant car d'évidence non adaptés : les universités, ambassades, et les intermédiaires entre chercheurs et financeurs. Enfin, lorsqu'un financeur était identifié via différents appels à projets, il n'était compté qu'une fois. L'étude a été menée entre le 04 Avril 2019 (date de l'envoi du premier mail) et le 17 juin 2019 (date de la dernière réponse). Les financeurs étaient contactés, d'abord par email puis par ro of téléphone (au moins deux relances par email et/ou téléphoniques) afin de répondre à un sondage en ligne via Google form. Le questionnaire visait à évaluer les critères de jugement principal et secondaires. Le critère principal était l'existence d'une politique de partage. Lorsqu'une -p politique de partage était présente, les critères de jugement secondaires étaient : le type de re politique de partage (politique rendant le partage obligatoire ou politique encourageant le partage), l'existence de lignes budgétaires dédiées au partage des données, l'existence d'un lP autre incitatif au partage des donnée (et, si oui, le type d'incitatif), l'existence de sanctions en cas de non-partage (et, si oui, quel type de sanctions ), l'existence de guidelines pour un mode Jo ur na spécifique de partage de données (et, si oui, quel type de partage, c'est-à-dire partage sur requête ou sur différents types de plateforme), le type de données à partager (les données individuelles, le code statistique, et toute autre type de données), l'existence de restrictions vers un partage de données aux chercheurs uniquement. Le tableau 1 présente plus clairement ces différentes modalités. Au-delà des critères portant sur le partage des données, d'autres aspects de leurs politiques étaient évalués pour tous les financeurs à savoir l'obligation d'un enregistrement préalable des recherches et l'existence d'incitatifs à la publication des résultats de l'étude (quels qu'étaient les résultats de l'étude). Enfin, le sondage précisait les caractéristiques du financeur à savoir le nombre d'appels d'offres du financeur sur l'année 2018, le volume financier annuel (2018) de l'ensemble des appels d'offres de ce financeur. Les réponses au questionnaire ont été rapportées et décrites sous forme d'effectifs, de pourcentages, de médiane (et intervalles interquartiles). Les analyses statistiques ont été réalisées à l'aide du logiciel R [8]. Résultats ro of La Fig. 1. représente les différentes étapes de sélection des financeurs d'ECR inclus dans notre enquête. Parmi les 276 financeurs identifiés, 86 ont été exclus. Sur les 190 contactés, le taux de réponse était de 51 %. Soixante-cinq des financeurs contactés et ayant répondu ont été -p finalement exclus car ils ne finançaient pas d'ECR. Nous avons alors inclus et analysé les re réponses de 31 des financeurs contactés. La liste des financeurs analysés est présentée dans l'Annexe 1. lP Le tableau 2 présente les caractéristiques descriptives des financeurs inclus selon l'implémentation d'une politique de partage ou non. Le volume financier sur l'année 2018, le Jo ur na nombre d'appels d'offres sur l'année 2018, réglementation sur l'enregistrement des ECR financés et la publication des résultats quel que soit le résultat sont les questions communes à tous les financeurs inclus. Sur les 31 financeurs inclus, les informations concernant le nombre d'appels d'offres et/ou le volume financier ne nous ont été communiquées pour 5 d'entre eux. Parmi les 31 financeurs d'essais cliniques français inclus, seuls 9 (29 %) déclarent avoir une politique de partage de données avec une obligation d'enregistrement préalable des ECR pour six d'entre eux. Treize (42 %) financeurs déclarent rendre obligatoire la publication des résultats (qu'ils soient positifs ou négatifs), dont 6 ayant une politique de partage de données. Six (27 %) des financeurs n'ayant pas déclaré de politique de partage de données rendent obligatoire l'enregistrement préalable des ECR. Le nombre d'appels d'offres médian en 2018 des financeurs inclus est de 2. Le volume financier médian des appels d'offres en 2018 est de 420 000 € pour les financeurs ayant déclaré une politique de partage et de 1 400 000 € pour ceux n'en ayant pas déclaré. Les dix principaux financeurs en termes de volume financier parmi ceux inclus sont listés dans le tableau 3.
La Fig. 2 présente la part en termes de nombre d'appels d'offres et de volume financier sur l'année ro of 2018 des financeurs des essais cliniques qui déclarent avoir une politique de partage de données. Le partage des données concernait 19 % du volume financier total (850 032 000 euros) des 26 financeurs nous ayant déclaré cette information. -p Le tableau 4 présente les caractéristiques des politiques de partage de données recueillies re via le questionnaire. Trois financeurs ont déclaré avoir des guidelines orientant vers un mode spécifique de partage de données (le partage sur requête et/ou le partage via une plateforme lP spécialisée) avec une restriction du partage aux chercheurs uniquement. Les types de données disponibles au partage sont : les données individuelles des patients, le protocole et ses Jo ur na amendements. Cinq financeurs déclarent dédier des lignes budgétaires au partage de données dont 3 ont mis en place des incitatifs au partage. La Ligue contre le cancer est le seul financeur à avoir fourni un détail des incitatifs : une aide aux investigateurs pour l'organisation du recueil d'analyse de données au plus haut niveau scientifique à travers des financements de plateformes de recherche clinique. Pour un autre financeur, l'incitatif déclaré n'était pas clairement exprimé et nous n'avons pas pu avoir confirmation malgré plusieurs relances. Discussion Sur les 31 financeurs analysés, 29 % des financeurs français avaient une politique de partage de données issues d'ECR. Plus précisément, parmi les 10 plus gros financeurs que nous avons pu identifier en termes de volume financier, un seul a déclaré faire du partage des données une possibilité encouragée. Dans un échantillon international de 18 financeurs majeurs, 2 (11 %) avaient une politique imposant le partage et 9 (50 %) une politique incitant au partage [9]. Toute comparaison reste difficile, mais en tout état de cause, les politiques de partage de données obligatoires restent l'exception aussi bien à l'international qu'en France. Par contre, en ce qui concerne, les politiques encourageant au partage, celles-ci sont presque inexistantes en France ro of alors qu'elles sont clairement plus ées à l'étranger. Il est difficile d'obtenir une liste complète des financeurs de la recherche clinique en France. Pour avoir une liste plus exhaustive, les financeurs analysés dans notre étude ont été -p sélectionnés en croisant trois listes différentes d'appels d'offres majeures. Mais ces listes ne re comprenaient pas que des financeurs d'essais randomisés contrôlés : il y avait des régions, des ambassades et des financeurs que bon nombre de chercheurs en recherche clinique n'ont pas lP l'habitude de contacter. La mise en place d'un registre listant les différents bailleurs de fonds de la recherche clinique en France pourrait être un plus pour une meilleure diffusion de Jo ur na l'information. Ce serait un moyen efficace pour un chercheur d'avoir des informations sur les possibles bailleurs de fonds pour sa recherche et les différentes politiques de ces derniers en matière de partage de données et toute autre mesure ayant pour but d'améliorer l'intégrité et la qualité de la recherche. Un exemple de ce type de registre est « Sherpa-Juliet » qui récence les conditions des bailleurs de fonds pour une publication en « open access » [10]. Il existe aussi des interfaces universitaires pour informer les chercheurs sur les recommandations des bailleurs de fonds ayant une politique de partage de données et open access [11]. Nous avons rencontré des difficultés à contacter les financeurs : pour certains nous n'avions aucunes coordonnées ni téléphoniques, ni mail et pour d'autres, nous n'avions pas reçu de réponses malgré nos relances (les personnes répondant au téléphone ou par mail ne sachant parfois pas nous orienter). Cependant, nous avons pu collecter des informations sur les principaux financeurs d'essais cliniques à savoir la Direction générale de l'offre de soins (DGOS), l'Institut national contre le cancer (INCa) et les différents Groupements interrégionaux pour la clinique et l'innovation (GIRCI). Nous avons aussi pris en compte la réponse de l'ANR qui apparaît comme l'agence ayant le plus gros volume financier. Néanmoins, la part de la recherche clinique dans les financements de l'ANR est faible et assurément moins importante que celle de la DGOS qui s'occupe du lancement des programmes ro of de recherche financés par le ministère des Solidarités et de la Santé. Le programme hospitalier de recherche clinique (PHRC) est l'un de ces programmes et il constitue l'un des plus importants financements de la recherche clinique en France. Jo ur na En plus du PHRC, les GIRCI possèdent une enveloppe interne qui leur permet de financer des projets de recherche qui peuvent être de la recherche clinique. Notre questionnaire a été construit pour récolter les informations sur les politiques de partage mais pouvait passer à côté de subtilités, que seule une approche plus qualitative pourrait mieux appréhender. Une approche plus qualitative aurait permis une vérification supplémentaire des réponses recueillies et aussi prendre en compte les décisions à venir des financeurs sur les notions de transparence et de réutilisation des données issues des essais cliniques. Par exemple s'il est clair que la DGOS n'a pas de politique de partage des données, elle n'est pas fermée à ces questions. Nos échanges avec ce financeur soulignent que des lignes de budget pour un partage de données pourraient être discutées au cas par cas. Indirectement, la politique de suivi des projets financés de la DGOS a pour but de permettre une meilleure visibilité et d'encourager le partage des résultats. Les financeurs analysés dans notre étude sont pour la plupart des institutions gouvernementales, des associations et/ou des fondations dont les principales ressources financières proviennent de dons. Bien que notre étude montre une méconnaissance du partage de données dans le secteur public, il n'en est pas forcément le cas au niveau de certains industriels français (secteur pas pris en compte dans notre étude). Bien que politique de partage ro of n'implique pas toujours un partage effectif, la Fédération européenne des industries et associations pharmaceutiques (EFPIA) a une politique de partage de données et les membres français suivent cette politique en rendant disponible les données issues des ECR et d'autres -p documents dans un but de transparence et de reproductibilité. De plus, l'agence Européenne du re médicament a prévu de obligatoire le partage avec sa politique 0070 de 2014 [12]. Cette prise de conscience de l'importance du partage de données doit être rependu au-delà de la lP réglementation des médicaments et être un des critères d'évaluation de la recherche clinique. Au-delà des financeurs, les initiatives de partage des données doivent impliquer les promoteurs Jo ur na et les responsables scientifiques des essais. Ceux-ci sont généralement considérés, à tort ou à raison, comme « propriétaires » de ces données et ont nécessairement un rôle important. Si les sondages à l'international, comme par exemple celui de Rathi et al. [13] révèlent généralement des intentions de partage élevées chez les investigateurs, il serait intéressant de réaliser un sondage, au plan français se focalisant sur les investigateurs et les différentes directions de la recherche clinique. Il serait intéressant d'y ajouter une partie qualitative explorant leurs perceptions en termes de valorisation de la recherche et leurs représentations sur le partage dans le contexte international actuel. Mais, aucune initiative isolée ne saurait suffire. Par exemple, deux journaux d'envergure, le BMJ et PLOS Medicine ont imposé le partage des données pour les études randomisées qu'ils publiaient. La disponibilité des données n'était pas optimale mais le taux de partage des données de l'ordre de 50 % était plus élevé qu'ailleurs dans la littérature biomédicale [1]. Les problèmes de contact avec les auteurs correspondants, le manque de ressources dans la préparation des ensembles de données et l'importante hétérogénéité des pratiques de partage des données sont autant d'obstacles à surmonter. Le partage des données, est présenté par l'ICMJE comme un impératif d'ordre éthique [14]. En d'autres termes puisque les participants aux essais acceptent de prendre des risques, ro of on leur doit en retour une utilisation optimale des données générées par la recherche. D'ailleurs, dans une étude américaine, les patients étaient dans une très large majorité favorable au partage de leurs données [15]. Le partage responsable des données maximiserait en effet les bénéfices -p que l'on peut attendre des essais en permettant des méta-analyses sur données individuelles, en re permettant d'explorer des questions nouvelles sans avoir besoin de faire courir de nouveaux risques dans une nouvelle étude lorsqu'un jeu de données existe jà et en permettant des ré- lP analyses pour certaines études parfois controversées. Les financeurs sont assurément un levier supplémentaire pour faire du partage des données des essais thérapeutiques une réalité. Le Jo ur na partage de données n'est pas sans contraintes et les financeurs peuvent allouer les ressources manquantes aux équipes pour mettre en forme, anonymiser et transférer les données dans les conditions les plus sûres possibles. Au-delà d'imposer le partage, ils peuvent imposer qu'une information adaptée et claire sur ce partage soit donnée aux scientifiques et aux patients. Ils ont une responsabilité certaine à assurer une utilisation optimale des ressources qu'ils allouent et à éviter autant que possible le gaspillage des efforts de recherche. re attendus. L'enjeu est de maximiser la valeur du bien public inestimable que représentent les Cette étude a été rendue possible grâce au soutien financier de Nationale de la Recherche (projet Jo ur na ReiTher, reproductibilité de la recherche thérapeutique, ANR-17-CE36-0010-01). Nous remercions également tous les participants qui ont bien voulu répondre à notre sondage ainsi que les personnes nous ayant donné accès aux listes de financeurs.
Déclaration de liens d'intérêts
Les auteurs n'ont pas de conflits d'intérêts à déclarer.
Références [1] Naudet F, Sakarovitch C, Janiaud P, Cristea I, Fanelli D, Moher D, et al. Data sharing and reanalysis of randomized controlled trials in leading biomedical journals with a full data sharing policy: survey of studies published in The BMJ and PLOS Medicine. BMJ 2018;360:k400. [2] Taichman DB, Sahni P, Pinborg A, Peiperl L, Laine C, James A, et al. Data sharing statements for clinical trials: a requirement of the International Committee of Medical Journal Editors. JAMA 2017;317:2491–2. https://doi.org/10.1001/jama.2017.6514. [3] Strom BL, Buyse ME, Hughes J, Knoppers BM. Data sharing - Is the juice worth the squeeze? N Engl J Med 2016;375(17):1608–9. [4] Wellcome. Data, software and materials management and sharing policy. 2020. https://wellcome.ac.uk/funding/guidance/data-software-materials-management-andsharing-policy. [Consulté le 3 avril 2020]. APMnews. L'Inserm et le CNRS appelés à améliorer la transparence entourant leurs ro of [5] essais cliniques. 2018. https://www.apmnews.com/nostory.php?uid=68878&objet=328604. [Consulté le 3 avril 2020]. Ministère de l'E supérieur, de la Recherche et de l'Innovation. Le plan -p [6] national pour la science ouverte : les résultats de la recherche scientifique ouverts à tous, re sans entrave, sans délai, sans paiement. 2018. http://www.enseignementsuprecherche.gouv.fr/cid132529/le-plan-national-pour-la-science-ouverte-les-resultats-de-la- [Consulté le 3 avril 2020]. OSF. Politiques de partage de données des financeurs des essais cliniques randomisés Jo ur na [7] lP recherche-scientifique-ouverts-a-tous-sans-entrave-sans-delai-sans-paiement.html. en France. 2019. https://osf.io/mr5hx/. [Consulté le 3 avril 2020]. [8] R Core Team RF for SC. R: A Language and Environment for Statistical Computing. Vienna, Austria: 2018. https://www.r-project.org/. [Consulté le 3 avril 2020]. [9] DeVito NJ, French L, Goldacre B. Noncommercial funders' policies on trial registration, access to summary results, and individual patient data availability. JAMA 2018;319:1721–3. [10] Research funders' open access policies - v2.sherpa. 2019. https://v2.sherpa.ac.uk/juliet/ [Consulté le 3 avril 2020]. [11] Nightingale A. Library: data management plans: Other major funder requirements. 2019. http://library.bath.ac.uk/research-data/data-management-plans/funderrequirements. [Consulté le 3 avril 2020]. [12] European Medecines Agency. European Medicines Agency policy on publication of clinical data for medicinal products for human use 2019. Mars 2019. https://www.ema.europa.eu/en/documents/other/european-medicines-agency-policypublication-clinical-data-medicinal-products-human-use_en.pdf. [Consulté le 3 avril 2020 (20 pp.)]. Rathi V, Dzara K, Gross CP, Hrynaszkiewicz I, Joffe S, Krumholz HM, et al. Sharing of ro of [13] clinical trial data among trialists: a cross sectional survey. BMJ 2012;345:e7570. [14] Taichman DB, Backus J, Baethge C, Bauchner H, De Leeuw PW, Drazen JM, et al. Journal Editors. Ethiop J Health Sci 2016;26:2-4. Miller J, Ross JS, Wilenzick M, Mello MM. Sharing of clinical trial data and results re [15] -p Editorial-sharing clinical trial data: a proposal from the International Committee of Medical reporting practices among large pharmaceutical companies: cross sectional descriptive study [16] lP and pilot of a tool to improve company practices. BMJ 2019;366:l4217. Sydes MR, Johnson AL, Meredith SK, Rauchenberger M, South A, Parmar MK. Sharing [17] Jo ur na data from clinical trials: the rationale for a controlled access approach. Trials 2015;16:104. Moher D, Naudet F, Cristea IA, Miedema F, Ioannidis JPA, Goodman SN. Assessing scientists for hiring, promotion, and tenure. PLOS Biol 2018;16:e2004089. [18] Demotes-Mainard J, Cornu C, Guérin A, Bertoye PH, Boidin R, Bureau S, et al. How the new European data protection regulation affects clinical research and recommendations? Therapies 2019;74:31–42. [19] Mello MM, Lieou V, Goodman SN. Clinical trial participants' views of the risks and benefits of data sharing. N Engl J Med 2018;378:2202–11.
Tableau 1. Les différents éléments des politiques de partages pris en compte. Critère de jugement Modalités
Explications Incitative (encourageant le partage) Existence d'incitatifs Lignes budgétaires Partage sur requête lP Partage sur une plateforme dédiée Jo ur na Existence de sanctions en cas de nonpartage Existence de guidelines pour un mode spécifique de partage de données -p Autre incitatif
Le partage des données est rendu obligatoire par le financeur. Par exemple, la fondation Bill and Melinda Gates impose que « les données ayant servi à produire tous les résultats publiés seront accessibles et ouvertes immédiatement » (https://www.gatesfoundation.org/howwe-work/general-information/open-access-policy) Le financeur encourage les chercheurs à partager sans que cela ne soit une condition obligatoire pour être financé. Il peut pour cela mettre en place différents incitatifs. Le financeur met à disposition des chercheurs des lignes financières dédiées à la préparation et au stockage des données. Le partage des données impose en effet une préparation pour rendre les données réutilisables et garantir la sécurité des patients. Pour cette catégorie, nous acceptions tout type d'incitatif. Le financeur peut par exemple conditionner le financement de projets ultérieurs au partage des données lors de financements antérieurs. Pour cette catégorie, nous acceptions tout type de sanction. Par exemple, le financeur pourrait décider de ne pas verser la dernière part de budget en cas de non partage. ro of Obligatoire re Type de politique de partage Données individuelles Code statistique et autre type de données Existence de Restrictions vers un partage restrictions de données aux Aucune chercheurs restriction uniquement
Type
de
données à partager
Le partage des données peut se faire avec des chercheurs, mais aussi avec tout autre acteur, comme par exemple des associations de patients, des journalistes, des citoyens, des industriels
Table
au
2. Caractéristiques
des financ
eurs
d'
ECR français ayant une
politique de partage de
données par
rapport
à ceux qui n
'
en
ont
pas. Les résultats sont sous forme de nombre (pourcentage) pour les variables
qualitatives et de
média
ne (inter
quart
ile range) pour les variables quantitatives. 20 Financeurs ayant une politique de partage de données N = 9 (29) Financeurs inclus N = 31(100) Nombre d'appels d'offres médian en 2018 Volume financier médian des AO en 2018 12 (39) 6 (67) 6 (27) 13 (42) 6 (67) 7 (32) 2 (1-5) 2 (1.5 – 4) 2 (1 - 5) 420 000 (253 000 - 1 000 000) 1 400 000 (400 000 - 7620 000) 1 100 000 (362 500 - 6 590 000) -p
ECR
:
essai c
ontrôl
é randomisé
;
AO
:
appels d'offres
ro of Enregistrement
obligato
ire des ECR
financ
és Publication obligatoire des résultats des ECR financés Financeurs n'ayant pas de politique de partage de données N = 22 (71) Volume financier (euros) Politique de partage de données 130 000 000 8 Non 36 500 000 9 Encourage le partage de données 24 000 000 Vaincre la mucoviscidose Institut national contre 22 000 000 le cancer Hospices civils de Lyon 12 000 000 1 Non 4 Non 150 Non 7 620 000 3 500 000 2 800 000 4 3 1 Non Non Non 2 280 000 1 Non Agence nationale de la recherche Direction générale de l'offre de soins Ligue contre le cancer Fondation APICIL GIRCI EST GIRCI GRAND OUEST Fondation ARSEP lP Nombre d'appels à projets 50 Jo ur na re Tableau 3. Volume financier et nombre d'appels d'offres des dix plus gros financeurs, déclarés lors de notre enquête 600 000 000 Non 20 Financeurs ayant une politique de partage de données N = 9 (28) 8 (89) 1(11) 5(56) 4(44) 3 (33) 6 (67) ro of 9 (100) re -p Type de partage de données Encourage le partage Oblige le partage1 Lignes budgétaires allouées au partage Oui2 Non Récompenses en cas de partage Oui3 Non Sanctions en cas de non-partage de données : Oui Non Mise en place de guidelines dédiées au PD : Oui4 Non Mode de partage recommandé : Dont sur requête5 Don sur des plateformes6 Dont les deux7 Types de données partagées : DIP8 DIP +Protocoles et amendements9 Partage de données uniquement aux chercheurs4 6 (67) 3(33) 3(33) 1 1 1 1(33) 2(67) Jo ur na lP 3 (33) Tableau 4.
| 19,130
|
31/hal.archives-ouvertes.fr-jpa-00205633-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 708
| 1,120
|
P .
intégration
. coefficients, intensities and a new upper limit of the half-life are given the most de-exciting the
. = Le 22'Ac se situe à la limite de la région des déformations nucléaires ; la complexité des schémas de niveaux faiblement excités des noyaux de transition pose de très sérieux problèmes expérimentaux et théoriques. Dans la région de 0 à 150 keV il y a au moins 10 niveaux [1] et l'identification de ces niveaux avec les états de grandes 2014 de Nilsson [2] est extrêmement difficile mais au-dessus de 300 keV une bande de rotation K = 1/2 est très bien développée [1, 3]. Cette bande de rotation est peuplée par la désintégration oc favorisée du 231Pa dont l'état fondamental est I 3/2, K 1/2 [530]. Un certain nombre d'informations sur les spins et les parités des états de basse énergie pourront être obtenues par l'étude de la désexcitation des niveaux de cette bande. En plus Nilsson et Mottelson [4] ont discuté la possibilité de trouver dans le 227 Ac une grande différence de déformation comme conséquence d'une compétition entre deux groupes de configurations différentes. Si la déformation du 227 Ac dans l'état 1/2 [530] à 330 keV est très différente de celle de l'état fondamental, on devrait s'attendre à une période très grande pour le groupe des transitions qui désexcitent cet état. Nous avons donc repris les mesures de spectrographie d'électrons de conversion et de spectromètrie y [5, 6] et exposerons dans cette communication nos résultats actuels concernant la désexcitation de la bande.K =1/2
. L'
analyse
des
électrons
de conversion interne
particul
e = = - - FiG. 1. - Désexcitation de la bande de rotation.
K
= 1/2,- de l'Université d'Ein Shams, Le Caire, R. A. U. Détaché du Centre Brésilien de Recherches Physiques. (1) Détaché Égypte, () FIG. 2. Partie
du
coïncidence avec le - en « groupe de 300 keV » de 27 keV. est effectuée à l'aide de spectrographes magné- semi-circulaires à aimant permanent avec comme détecteur des émulsions sensibles aux électrons. 1/analyse du spectre est faite à l'aide d'un ensemble INa (Tl), photomultiplicateurs EM1 9514 A, analyseur multicanaux Intertechnique permettant de séparer en spectre direct ou en coïncidence des raies de l'ordre de 300 keV et séparées de 3 keV ; la validité de cette analyse a été testée par la détermination des coefficients de conversion interne K dans la désintégration 233Pa -> 233U [7]. La valeur des énergies des différentes transitions issues de la bande de rotation sont donc : tiques Les intensités absolues et la nature de toutes les transitions observées sont données figure 1, cette dernière a été déterminée à partir des coefficients de conversion absolus issus de l'analyse des raies y et Xk des spectres directs et en coïncidence, et des rapports K/L. La période du niveau de 330 keV est inférieure à 7 X 10-11 s. Que peut-on déjà déduire de ces résultats? La bande de rotation 1/2 [530] se désexcite - pour l'essentiel vers l'état fondamental et les trois niveaux excités de 27,5, 30 et 46 keV. La limite supérieure que nous avons mesurée par la période des transitions du groupe est déjà suffisamment petite pour exclure la possibilité d'une grande différence de déformation entre les états fondamental (ou faiblement excités) et les états entre 300 et 400 keV. L'état fondamental du 22'Ac doit avoir une parité négative parce que la transition de 330 keV est de nature Ml -r-,E 2 ; c'est probablement l'état de Nilsson 3/2 [532]. La déformation de l'état fondamental étant positive d'après les calculs de Mottelson et Nilsson [4] la valeur négative [6] de son moment quadrupolaire électrique est très difficile à expliquer. Nous pouvons fixer la parité de quelques niveaux de basse énergie (le premier niveau 3/2 + de 27,5 keV est probablement l'état 3/2 + [651] mais les contradictions entre les études les plus complètes des raies de conversion interne des raies de faibles énergies, publiées jusqu'à présent [1, 5] empêchent de construire un schéma de désintégration cohérent. L'étude du spectre y de basse énergies a déjà été entreprise dans ces laboratoires [9] et l'étude des électrons de conversion interne est en cours. - BIBLIOGRAPHIE [1] BARANOV (S. A.) et coll., J.
Exp
.
Teor.
| 43,850
|
36/tel.archives-ouvertes.fr-tel-00417551-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,267
| 16,671
|
Méthodologies d'évaluation très coûteux mais n'implique pas forcément de lire l'intégralité du document pour prendre une décision. La segmentation manuelle d'un texte implique d'en saisir l'organisation interne, ce qui induit un volume d'efforts considérable. Si l'on souhaite disposer de corpus suffisamment grands pour être significatifs, l'annotation manuelle de corpus pour l'évaluation de méthodes de segmentation se révèle être une tâche colossale. Mais ce n'est pas le principal problème! L'aspect subjectif de la segmentation d'un texte est terriblement problématique : il est très rare que les annotateurs s'accordent sur une segmentation donnée [Hearst, 1997]. En effet, les différences de sensibilité aux changements thématiques ou les différences de point de vue sont telles qu'il est difficile de trouver un consensus entre les annotateurs. Des propositions de constitution de segmentations de référence ont été faites (voir par exemple [Nakatani et al., 1995]), mais les corpus disponibles à ce jour sont bien loin d'être suffisamment grands pour réaliser une évaluation qui permette de faire apparaı̂tre des tendances significatives. Une autre piste pour la constitution de segmentations de référence pourrait être d'utiliser des textes pré-formatés : les paragraphes existent déjà dans la version originale du document et les méthodes peuvent être évaluées sur leur capacité à les repérer. Néanmoins, du fait de la présence fréquente de phrases de transition dans les documents structurés, les méthodes risquent d'avoir beaucoup de difficultés à retrouver les différents paragraphes et l'évaluation risque alors de n'être pas très probante. Par ailleurs, tel qu'énoncé plus haut, la structure physique d'un texte ne correspond pas toujours à sa structure thématique. En fait, pour obtenir des résultats significatifs, il faut que les transitions thématiques soient suffisamment marquées pour pouvoir différencier les méthodes sans ambiguı̈té. Si les transitions sont floues, il est en effet difficile de comparer les méthodes puisque nous mêmes, en tant qu'humains, risquons d'avoir les mêmes désaccords. Par ailleurs, il est difficile de tirer quelque conclusion que ce soit lorsqu'aucune méthode ne produit ce que l'on attend. Par conséquent, la constitution de corpus d'évaluation se fait généralement par concaténation d'articles [Choi, 2000] : un certain nombre de textes sont mis bout à bout et les méthodes de segmentation sont évaluées sur leur capacité à retrouver les frontières entre articles. Des expérimentations sur ce genre de textes peuvent paraı̂tre ne pas représenter la réalité, puisque les documents que l'on segmente sont bien moins homogènes que des documents réels, mais ces transitions franches permettent d'observer des tendances claires. De plus, au vu des résultats obtenus par les méthodes actuelles, le niveau de difficulté induit par ce type de corpus paraı̂t bien suffisant. Dans la suite de ce chapitre, nous noterons R = (U, BR ) la segmentation de référence ainsi obtenue sur le document U (composé de plusieurs articles donc) et H = (U, BH ) celle produite sur ce même document par la méthode à évaluer. Par ailleurs, nous noterons nom corpus(n, m) les différents corpus constitués, nom corpus correspondant au nom du corpus, n correspondant au nombre moyen de phrases dans les documents de ce corpus et m représentant le nombre d'articles 109 Chap
itre
5. Segmentation thématique ayant été concaténés pour former chacun des textes de ce corpus. Par
exemple, un corpus noté AP (100, 4) contient des textes d'une taille moyenne de 100 phrases et résultant de la concaténation de
quatre
articles du corpus AP (présenté en section 3.2). 5.3.2
Parmi les mesures d'évaluation actuelles des méthodes de
segmentation
, on retrouve couramment les mesures classiques de Rappel et de Precision empruntées à la recherche d'information. Leurs définitions sont ici différentes puisque l'on ne compare pas un ensemble de documents retournés avec un ensemble de documents pertinent
s
mais
un ensemble de frontières produit
es
BH avec un ensemble de frontières de référence BR : |BR ∩ BH
| |BR | |BR ∩ BH | P recision(H, R) = |BH | R
appel
(H, R) = (5.1)
(
5.2
)
Le rappel correspond alors au ratio de frontières de référence à avoir été ées par la méthode à évaluer et la précision représente le ratio de frontières produites à appartenir à la segmentation de référence. Bien que fréquemment employées, ces deux mesures présentent deux limites majeures [Beeferman et al., 1997] : – À l'instar des observations réalisées pour la recherche d'information (section 3.3.1), ces deux mesures sont en corrélation inverse : alors que le rappel a tendance à augmenter lorsque le nombre de frontières déterminées par la méthode augmente, la précision a tendance à diminuer dans le même temps. Si ce phénomène peut poser un problème d'interprétation lors de leur utilisation pour l'évaluation de systèmes de recherche d'information, les difficultés qu'il induit sont ici bien plus importantes : alors que lors de l'évaluation d'une liste de documents, il est possible de déterminer un nombre donné de documents à considérer, le nombre de frontières de la segmentation à évaluer n'est pas paramétrable a posteriori (et n'est d'ailleurs bien souvent pas réglable a priori non plus, la plupart des méthodes ne permettant pas de fixer le nombre de frontières à déterminer). La comparaison entre deux méthodes de segmentation déterminant des nombres différents de frontières est alors difficile ; – Ces critères ne prennent en compte que les correspondances exactes entre la segmentation de référence et celle à évaluer. Un décalage d'une frontière d'une phrase ou deux est alors aussi pénalisant que l'absence de frontière dans cette zone de texte. Il semble néanmoins naturel de considérer ce type d'erreur mineure avec moins de sévérité. Dans le but de dépasser ces limites, Beeferman et al. ont proposé une mesure d'évaluation alternative, la P k-mesure [Beeferman et al., 1997], qui correspond à un degré de désaccord entre les deux segmentations (i.e., H and R) pour ce qui est de l'appartenance de phrases à un même segment. Plus précisément, la mesure passe en revue tous les couples de phrases ui et uj séparées l'une de l'autre par une distance de k phrases (on a alors |i − j| = k) pour déterminer si les deux phrases considérées appartiennent à un même segment ou non. Si, pour chacune de ces paires de phrases, la réponse à cette question n'est pas la même selon que l'on considère l'une ou l'autre des deux segmentations, la mesure incrémente un compteur de désaccords rencontrés. Le résultat final correspond à ce nombre de désaccords normalisé par le nombre de paires de phrases considérées. Cette mesure permet de régler les deux problèmes évoqués ci-dessus, conduisant à l'obtention d'un score unique et considérant différemment les erreurs selon leur importance. Après avoir procédé à une analyse de cette mesure, Pevzner et Hearst ont néanmoins identifié un certain nombre de biais [Pevzner and Hearst, 2002] : – L'absence d'une frontière à une position donnée (frontière manquante) est plus pénalisée que l'insertion d'une frontière n'existant pas dans la référence (frontière abusive) ; – La mesure ne prend pas en compte toutes les erreurs, certaines pouvant être cachées par d'autres ; – Les décalages de frontières sont trop pénalisés ; – La mesure est sensible aux variations de taille des segments. Par conséquent, Pevzner et Hearst ont proposé une nouvelle mesure d'évaluation qui s'inspire de la P k-mesure, la mesure W indowDif f, qui considère le nombre de frontières entre deux phrases séparées par une distance k [Pevzner and Hearst, 2002] : n−k WindowDiff (H, R) = X 1 (|
f
r(R
,
i,
i + k) − f r(H, i, i + k)|) × n−k i=1
(5.3) où n correspond au nombre de phrases du texte concerné et f r(S, i, j) représente une fonction retournant le nombre de frontières de B existant entre les phrases ui et uj dans la segmentation S = (U, B) : f r(S, i, j) = |{b ∈ B|i ≤ b < j}| (5.4) En réalisant une rapide analyse de la mesure, on s'aperçoit que la taille k de la fenêtre utilisée joue un rôle très important dans la mesure. En effet, si d correspond à la distance qui sépare une frontière de sa position dans la référence (en nombre de phrases), on a alors : – Si d ∈ [1, k/2[, alors la pénalité résultant du décalage est moins importante que si la frontière concernée n'avait pas été détectée du tout ; – Si d = k/2, alors la pénalité résultant du décalage est égale à la pénalité qui aurait été donnée si la frontière concernée n'avait pas été détectée du tout ;
5. gmentation thématique
– Si d ∈]k/2, k], alors la pénalité est plus importante que si la frontière n'avait pas été détectée mais plus faible que si la mesure avait considéré deux erreurs (une frontière manquante et une frontière abusive) ; – Si d > k, alors la mesure considère deux erreurs (une frontière manquante et une frontière abusive). La taille de fenêtre utilisée détermine alors la tolérance de la mesure par rapport aux erreurs. 5.4 Vers une segmentation globale et cohérente des textes
Tel que l'on a pu le voir en section 5.2, les méthodes statistiques de segmentation fondent la détection des ruptures thématiques sur des critères locaux. La plupart de ces méthodes déterminent des zones au sein desquelles des mesures de cohésion peuvent être calculées. Seules les relations de proximité entre unités (phrases ou paragraphes) d'une même zone de texte sont alors considérées. L'efficacité de ces méthodes semble dépendre fortement de la taille des zones considérées (longueur maximale d'une chaı̂ne lexicale, taille de la fenêtre de calcul, nombre de paires voisines considérées, etc..). Dans le cas de zones trop petites, l'algorithme risque d'ignorer un certain nombre d'indices de cohésion. Dans le cas de zones trop grandes, il risque de considérer des répétitions de termes qui ne de contextes Cependant, il est difficile de déterminer la taille de ces zones puisqu'aucune information sur la structure du texte n'est disponible a priori. Par ailleurs, de telles approches rendent impossible la prise en compte du texte dans sa globalité, particulièrement pour ce qui concerne le degré de granularité utilisé pour l'expression des différents thèmes abordés. Nous pensons que le fait de restreindre les calculs à des zones de texte peut avoir des effets négatifs sur la qualité et la cohérence de la segmentation obtenue : de la même manière que le partitionnement d'un ensemble de données en classes ne peut être réalisé efficacement à partir d'un échantillon restreint des données, la totalité des relations inter-phrases (ou inter-paragraphes) peut être nécessaire pour distinguer les différents thèmes du texte. Afin d'obtenir une segmentation cohérente, la détermination d'une frontière doit avoir des effets sur le processus de segmentation dans sa globalité. Afin de pallier à ces limites observées, nous avons cherché à nous tourner vers une méthodologie de segmentation qui puisse considérer les textes de manière plus globale que les approches existantes. Cela nous a conduit à considérer les propositions faites dans [Bellot, 2000], où il est proposé de réaliser un repérage préliminaire de l'ensemble des thèmes du document avant d'y appliquer un processus de segmentation. Chapitre 5. Segmentation thématique fréquemment observé, conduisant alors à une sur-segmentation du texte 10.
Certes, les liaisons existant entre les segments permettent de faire apparaı̂tre l'organisation générale du discours, mais ce type de segmentation risque d'être peu utilisable pour des applications ultérieures, telles que la recherche de passages correspondant à une requête par exemple (approches dites de Passage Retrieval), la structure résultant de ce processus de segmentation pouvant alors s'avérer trop complexe. Par ailleurs, la segmentation produite dépend directement du mécanisme de regroupement utilisé, alors qu'aucune méthode de clustering existante ne peut être considérée comme absolument fiable. Néanmoins, étant convaincus qu'un clustering préliminaire peut permettre d'adopter une vision plus globale du texte et des relations qui régissent l'organisation du discours, nous avons proposé une première méthode de segmentation, appelée ClassStruggle, qui, tel que préconisé dans [Bellot, 2000], s'appuie sur un clustering préliminaire des phrases du texte pour en découvrir les thèmes principaux. Afin d'améliorer la robustesse du système, nous avons cherché à donner une certaine flexibilité au processus de déduction des segments à partir des clusters formés. Considérant que le processus de segmentation doit, outre les proximités thématiques des unités, prendre en compte une notion de distance dans le texte, nous proposons de faire évoluer les clusters thématiques en fonction de l'agencement des phrases dans le texte. Nous présentons cette méthode plus en détail dans la section suivante. Tel que mentionné précédemment, Salton définit un segment thématique comme une partie de texte qui présente à la fois une forte cohésion interne et une grande dissimilarité avec les parties de texte adjacentes [Salton et al., 1996]. Ces deux cteurs, cohésion interne et dissimilarité entre segments adjacents (qui peuvent être rapprochés des critères de cohésion et de séparation des clusters, voir section 2.1), peuvent constituer deux critères importants à optimiser. Or, on peut observer que dans la plupart des approches existantes, la détermination des frontières thématiques se fait de manière séquentielle, ce qui réduit considérablement les capacités d'optimisation de ces critères. En effet, la détermination d'une frontière étant réalisée avant que le segment qui la suit ne soit encore entièrement délimité, il est alors impossible de calculer la proximité entre segments adjacents. La cohésion interne des segments, quant à elle, n'est optimisée que localement et risque alors de ne pas correspondre à un optimum global. 5.4 Vers une segmentation globale et cohérente des textes des paires de segments possibles pour calculer leur proximité
11. Ces observations nous ont conduit à concevoir une approche permettant une meilleure prise en compte de la cohésion interne des segments et de la dissimilarité entre segments adjacents. Basé sur l'évaluation de propositions de segmentation, SegGen considère le texte dans son ensemble pour en déduire une segmentation "optimale". Les frontières ne sont pas déterminées les unes après les autres, ce qui permet la mesure des critères de segmentation proposés par Salton. Ne disposant d'aucune information sur la structure du texte ni sur le nombre de frontières à déterminer a priori, la taille de l'espace de recherche induit nous a conduit à employer des techniques issues du domaine de l'optimisation combinatoire. L'utilisation d'un algorithme génétique dédié à l'optimisation multi-objectifs, le Strength Pareto Evolutionary Algorithm présenté en section 4.3.2, nous a semblé tout à fait adaptée à notre problème de segmentation qui peut alors s'apparenter à un problème d'optimisation à deux objectifs (cohésion interne et dissimilarité entre segments adjacents). Cette approche de segmentation est présentée en section 5.4.2.
5.4.1 ClassStruggle : mise en concurrence de groupes thématiques
La méthode ClassStruggle que nous proposons commence par appliquer un processus de clustering aux phrases du texte pour en découvrir les thèmes principaux, ou du moins, faire émerger des tendances de rapprochement thématique entre phrases selon une mesure de similarité donnée (la mesure Cosine du modèle vectoriel, voir section 1.3.2). La méthode de clustering utilisée dans un premier temps est la méthode Single Pass décrite par l'algorithme 2.1 (section 2.3), avec une valeur du seuil minimal φ, paramètre que requiert cet algorithme, fixée de telle sorte qu'elle corresponde à la moyenne des distances entre chaque couple de phrases du texte. La distance δ(ui, Cj ), entre une phrase ui et un cluster Cj, correspond à la moyenne des distances entre la phrase ui et les phrases contenues par le cluster Cj. En fin de processus, les clusters ne contenant qu'une seule phrase sont supprimés et les phrases qu'ils contiennent ré-affectées au cluster qui leur est le plus proche. Cette méthode est loin d'être optimale puisque les clusters résultants dépendent fortement de l'ordre de traitement des phrases [Zamir and Etzioni, 1998]. Chapitre 5. Segmentation thématique clusters utilisés.
Dans nos expériences, une moyenne de 12 clusters par document de 100 phrases et de 7 clusters par document de 50 phrases ont été produits. Alors que le principe de la plupart des méthodes statistiques est de s'appuyer sur la distribution des termes dans le texte, ClassStruggle se fonde sur la distribution des occurrences des membres de chacun des clusters qu'il manipule. L'objectif est de définir un processus permettant d'introduire un critère de proximité spatiale (positions dans le texte) dans des clusters rendant uniquement compte de proximités thématiques. Dans le but d'obtenir des groupes qui contiennent uniquement des phrases appartenant à un même développement thématique, chaque phrase est amenée à transiter d'un cluster à l'autre, en fonction des clusters de son voisinage (phrases adjacentes). Les phrases contenues par un même cluster sont alors considérées comme membres d'un même segment thématique, et des frontières sont finalement déterminées entre les phrases adjacentes appartenant à des clusters différents. L'algorithme 5.1 décrit le fonctionnement général de ClassStruggle : à chaque itération du processus, l'objectif est de déterminer quel est le cluster dominant sur les différentes zones du texte (ce qui correspond à déterminer la thématique dominante sur les différentes parties de texte), afin d'y faire transiter les phrases correspondantes (phrases de la zone concernée) lors de l'itération suivante. Le processus se base alors sur un calcul du potentiel d'appartenance A(Ci, j) de chaque phrase uj à chaque cluster Ci, chaque phrase étant finalement affectée au cluster pour lequel elle obtient le meilleur potentiel d'appartenance : A(
Ci
,
j)
= P rox(Ci, C(uj )) + β × Ag(Ci, j − 1) + β × Ad(Ci, j + 1) (5.6) Ag(Ci, j) = P rox(Ci, C(uj )) + β × Ag(Ci, j − 1) (5.7) Ad(Ci, j) = P rox(Ci, C(uj )) + β × Ad(Ci, j + 1) (5.8) où C(uj ) correspond à une fonction
retournant
le
cluster
auquel
la phrase uj appartient et P rox(Ci, Cj
)
correspond à la
proximité
th
ématique des clusters
Ci et Cj (formule 5.10
). 5.4 Vers une segmentation globale et cohérente des textes
Algorithme 5.1 : Algorithme de la méthode de segmentation ClassStruggle Données : Une séquence U de n unités (ou phrases) u1, u2,., un, Un ensemble C de k clusters C1, C2,., Ck issus du clustering initial des phrases, Deux paramètres α et β permettant de régler l'influence de la proximité spatiale. Résultat : Une liste de frontières B de m frontières b1, b2,., bm. 1 début 2 B = {} ; m = 0 ; best = 0 ; stop = 0; 3 C ′ = ensemble de k clusters C1′, C2′,., Ck′ vides; 4 /* Évolution des clusters */ 5 tant que stop = 0 faire 6 stop = 1; 7 pour chaque Ci ∈ C faire 8 pour chaque uj ∈ U faire 9 Calcul du potentiel d'appartenance A(Ci, j) de la phrase uj au cluster Ci (formule 5.6 avec les paramètres α et β); 10 fin 11 fin 12 /* Affectation des phrases aux clusters dominants */ 13 pour chaque uj ∈ U faire best = argmaxi∈{1,,k} A(Ci, j); 14 ′ ′ 15 ∪ {uj }; = Cbest Cbest 16 fin 17 si C = 6 C ′ alors 18 C = C′; 19 C ′ = ensemble de k clusters C1′, C2′,., Ck′ vides; 20 stop = 0; 21 fin 22 fin 23 /* Segmentation de U entre phrases appartenant à des clusters différents */ 24 Soit C(uj ) une fonction qui retourne le cluster contenant la phrase uj ; 25 pour j = 2 à n faire 26 si C(uj ) 6= C
(uj−1 ) alors 27 m = m + 1; 28 bm = j − 1; 29 B = B ∪ {bm }; 30 fin 31 fin 32 fin 117
Chapitre 5. Segmentation thématique
Réécrite de cette manière, la formule fait apparaı̂tre une notion de distance au signal 13 : le bénéfice qu'un cluster retire de la présence de l'un de ses membres (ou d'un membre qui lui est thématiquement proche) dans une zone de texte donnée est atténué au fur et à mesure que l'on s'éloigne de ce signal (puisque β ∈ [0, 1]). Le bénéfice tiré par un cluster lorsqu'il rencontre un de ses membres dépend alors du paramètre α qui peut être considéré comme un facteur d'intensité du signal, en opposition avec β qui correspond à un degré de propagation de ce signal. Une fois les différents potentiels d'appartenance des phrases aux clusters établis, l'algorithme les utilise pour réaffecter les phrases dans les clusters (chaque phrase uj est affectée au cluster Ci avec lequel elle possède le plus fort score A(Ci, j)). Le processus se poursuit (en recalculant les potentiels et réaffectant les phrases aux clusters) tant que l'on n'a pas atteint une configuration stable. Cette réitération du processus permet de répercuter les transformations de clusters sur les calculs et ainsi, pour certains groupes, d'établir clairement leur dominance sur des zones de texte données. Les segments obtenus peuvent alors être suffisamment étendus pour définir de véritables passages thématiquement homogènes malgré les nombreuses irrégularités du texte. Lors des expérimentations décrites dans la suite de cette section, nous avons observé une convergence rapide de l'algorithme dans la plupart des cas, le nombre maximal d'itérations enregistré étant de 15 itérations. La qualité du clustering initial, le degré de prise en compte du contexte (paramètre β) et la taille des textes à 13. Notion qui peut se rapprocher des chaı̂nes pondérées de [Sitbon and Bellot, 2005], à ceci près que les scores des chaı̂nes dépendent des membres des clusters et pas uniquement à des occurrences de termes. 14. Nous n'utilisons néanmoins pas le facteur IDF employé dans la formulation réalisée en section 1.3.2, Hearst ayant constaté que l'utilisation de ce facteur tendait à ré duire quelque peu les performance des algorithmes de segmentation thématique [Hearst, 1994]. 5.4 Vers une segmentation globale et cohérente des textes segmenter paraissent légèrement influencer le nombre d'itérations nécessaires pour atteindre un ensemble de clusters stable, mais les différences ne sont pas réellement significatives. Néanmoins, il peut probablement survenir que, dans de très rares cas, l'algorithme entre dans une boucle infinie, deux clusters se succédant sur un territoire donné, prenant le pas l'un sur l'autre à tour de rôle. Il est alors possible de définir un nombre d'itérations maximal pour éviter ce genre de cycle, qui reste, selon nos observations, très peu fréquent.
La figure 5.3 illustre un exemple de l'application de la méthode ClassStruggle sur un texte composé de 10 phrases (de A à J) extraites de deux articles de journaux différents, les phrases de A à G appartenant à un premier article, les phrases de H à J à un autre.
L'application de la méthode de clustering initiale sur ce texte a permis d'identifier trois groupes de phrases C1, C2 et C3. Étant donné que la phrase C possède un certain nombre de termes en commun avec les phrases H, I et J, le processus de clustering les a regroupés dans un même cluster. Les phrases D et E, quant à elles, sont très fortement similaires. Elles ont donc été affectées à un cluster différent des autres phrases. Les potentiels d'appartenance des différentes phrases C1 : D, E C2 : A, B, F, G C3 : C, H, I, J Sim(C1,
C
2)=0,3 Sim
(C2,C3)
=0,2
Sim(C1,C
3)=0,1
A(C2,Ui
)
A(C
3,Ui)
A(
C1,
Ui
)
A B C D E
F G
H
I
J Sim
(C1
,
C
2)
=0 Sim(C2,C3)=0,25 Sim(C1,C3)=0 C1 : C2 : A, B, C, D, E, F, G C3 : H, I, J A(C2,Ui) A(C3,Ui) A(C1,Ui) A B C D E F G H I J
Figure 5.3 – Fonctionnement de ClassStruggle aux trois clusters sont représentés par des courbes dont la hauteur correspond au score obtenu par le couple cluster, phrase correspondant (selon l'équation 5.9).
L'
algorithm
e ClassStruggle atteint un état stable après la première itération, le cluster C2 ayant pris le pas sur les autres sur le début du document (de A à G, ce qui correspond au premier article) et le cluster C3 se trouvant dominant sur la fin du texte (c'est à dire de H à J, le deuxième article). Le
cluster
C1 est quant lui complètement
et La méthode détermine donc finalement une frontière entre les phrases G et H, ce qui correspond bien à la séparation entre les deux articles de journaux. Notons qu'une segmentation directement déduite du clustering aurait conduit à la production de cinq segments : AB, C, DE, FG et HIJ. L'introduction de notions de proximité spatiale des phrases dans les clusters a permis de passer outre les petites irrégularités du discours pour ne s'intéresser qu'aux tendances majeures du texte et déterminer les ruptures thématiques les plus importantes. Les deux paramètres α et β ont une grande importance puisque ce sont eux qui déterminent le degré de flexibilité du processus de segmentation par rapport au clustering initial. Nous présentons donc maintenant quelques expérimentations réalisées dans le but de trouver les réglages optimaux pour ces deux paramètres. Essayons dans un premier temps d'encadrer ces valeurs : – Pour pouvoir converger vers une segmentation stable, il faut que le bénéfice tiré par un cluster lorsqu'il rencontre l'un de ses membres (une phrase qu'il contient) soit supérieur à ce que les autres clusters gagnent sur cette même phrase. La valeur de α doit donc être supérieure à 1 pour permettre aux clusters d'obtenir le meilleur score P rox(Ci, C(uj )) si uj ∈ Ci ; – Pour donner au contexte la possibilité d'influer sur l'appartenance des phrases aux clusters, il ne faut pas que α soit trop élevé. Nous nous limiterons donc à α = 2 comme valeur maximale ; – Pour que le contexte ait une quelconque influence, il faut que la valeur du coefficient de propagation β soit supérieure à 0 (si β = 0, la segmentation est directement déduite des clusters initiaux) ; – Le coefficient β doit absolument être inférieur à 1 puisque, avec une telle valeur, un cluster risque de dominer tous les autres de manière permanente, prévenant la détermination de quelque frontière que ce soit (le contexte ayant trop d'importance, le thème possédant le plus de représentants dans le texte risque d'absorber les autres clusters). Afin de déterminer les valeurs "optimales" de ces deux paramètres, nous avons alors testé toutes les combinaisons (α, β) entre (1, 0) et (2, 1) en faisant varier les valeurs d'un pas de 0.05. La figure 5.4 décrit les résultats de ces expérimentations sur le corpus AP (100, 4) en terme de WindowDiff, de rappel, de precision et de nombre de segments obtenus, chaque courbe représentant les scores obtenus pour une valeur donnée de α, avec β variant entre 0 et 1 (chaque point correspond à la moyenne des scores obtenus sur 350 documents). La courbe de chaque graphe dont les points sont marqués correspond aux résultats obtenus avec la valeur α = 1.25.
Rechercher une valeur optimale pour α selon la valeur de β revient à trouver un équilibre entre respect des clusters initiaux et prise en compte du contexte des phrases. Avec de faibles valeurs de β (c'est à dire lorsque le contexte n'a que peu d'influence), les valeurs de α les plus faibles paraissent être les meilleures et lorsque β augmente, la méthode fonctionne mieux avec des valeurs de α légèrement plus 120 5.4 Vers une segmentation globale et cohérente des textes élevées. Les valeurs de α supérieures à 1.25 donnent trop d'importance au cluster contenant la phrase courante et entrainent alors une nette détérioration des résultats. Néanmoins, α semble n'avoir qu'une faible influence sur les résultats. Les différentes courbes restent stationnaires jusqu'à la valeur β = 0.5. À partir de cette valeur, le contexte a suffisamment de poids pour influencer la détermination des clusters dominants. Selon les scores
de WindowD
iff et
de précision
,
β = 0.8 per
1.4 1 0.8 1 Rappel WindowDiff 1.2 0.8 0.6 0.4 0.4 0.2 0.2 0 0 0 0.2 0.4 0.6 Beta 0.8 1 0 0.2 0.4 0.6 Beta 0.8 1 0.2 0.4 0.8 1 20 Nombre de segments 1 0.8 Precision 0.6 0.6 0.4 0.2 0 15 10 5 0 0 0.2 0.4 0.6 Beta 0.8 1 0 0.6 Beta
Figure 5.4 – Réglages des paramètres α et β de ClassStruggle met l'obtention des meilleurs ré
. Cependant, une valeur plus faible entraı̂ne un meilleur rappel. Cela est dû au fait qu'une plus grande importance donnée au contexte tend à réduire le nombre de segments. Malgré une diminution du nombre de segments, la précision chute pour 0.8 ≤ β ≤ 0.9, ce qui dénote une détérioration évidente de la qualité de la segmentation (la précision devrait augmenter avec la diminution du nombre de segments). Les clusters dominants ont, avec de telles valeurs, trop d'impact sur leur entourage et empiètent sur le "territoire" des autres clusters. Ainsi, les valeurs optimales pour β sont situées entre 0.7 et 0.8, selon la fréquence de segmentation désirée. Sur cet intervalle, α = 1.25 permet l'obtention des meilleurs résultats. Par ailleurs, le fait que la valeur optimale de β soit nettement supérieure à 0 souligne l'intérêt significatif de notre approche par rapport à un processus déduisant directement ses frontières des clusters de phrases initialement
. 5.4.2 SegGen : optimisation multi-objectifs des segments
La segmentation peut être considérée comme un problème d'optimisation multiobjectifs visant à maximiser deux critères : la cohésion interne des segments et la dissimilarité entre segments adjacents. Ces deux critères s'opposent puisque, lorsque le nombre de frontières augmente, la cohésion interne tend à croı̂tre alors que la dissimilarité entre segments adjacents tend à diminuer. Afin d'optimiser ces deux critères simultanément, sans favoriser l'un par rapport à l'autre, et en gardant un niveau de diversité des solutions permettant d'atteindre des compromis efficaces, nous utilisons le performant "Strength Pareto Evolutionary Algorithm" [Zitzler, 1999] présenté en section 4.3.2. Réalisant l'application directe de cet algorithme, nous n'en présentons ici que les aspects et détails spécifiques à notre problème.
Représentation du problème
Étant donné un texte composé de n phrases, les individus sont représentés par des vecteurs binaires ~x de (n − 1) éléments xi ; xi = 1 indique qu'une frontière existe entre les phrases i et i + 1. Ce codage, qui représente exactement la traduction d'un ensemble de frontières B en vecteur binaire de taille fixe, s'avère très pratique lors de l'application d'opérateurs génétiques. Les vecteurs des individus ont en effet la même taille quel que soit le nombre de frontières pour lequel ils codent, ce qui simplifie considérablement les croisements d'individus. 5.4 Vers une segmentation globale et cohérente des textes où segi correspond au i-ème segment de l'individu, nbseg au nombre de segments qu'il contient, SumSim(segi ) à la somme des similarités
entre
toutes les phrases de segi et N bCouples(segi ) au nombre de couple
s
de
phrase
s possibles
dans segi. La distribution des similarités dans le texte
n
'
é
tant
pas uniforme, il est possible de trouver de petites zones de texte possédant une cohésion interne très forte. En utilisant la formule (5.12), des individus contenant ces petits blocs de textes ont de grandes chances d'obtenir un score de cohésion élevé. Une normalisation de ce score selon la taille de chaque segment aurait pu être envisagée mais cela aurait probablement induit un certain nombre de biais. La formule (5.13), correspondant à un moyennage global, produit de meilleurs résultats : →
C(
−
x)= nbseg P i=1 nbseg P SumSim(segi ) (5.13) N bCouples(segi ) i=1
En présence de longs segments, le nombre de couples envisagés est plus grand que 2 2 + Cn−1 > Cn2 + Cn2 ). Les si tous les segments sont de même taille (par exemple, Cn+1 individus possédant une moindre variation dans la taille de leurs segments sont alors favorisés. Ceci peut être perçu comme un biais mais correspond en fait à favoriser les segmentations réalisant un découpage uniforme. La similarité d'un segment avec son successeur est calculée grâce à la formule suivante 16 :
SimSeg(seg1, seg2 ) = P P Sim(sj, sk ) sj ∈P(seg1 ) sk ∈P(seg2 ) |P(seg1 )| × |P(seg2 )| (5.14) avec segi représentant le segment i de l'individu, sj la phrase j du
texte, P(segi ) l'ensemble des phrases du segment segi et |P(segi )| le cardinal de cet ensemble. Cette formule nous permet d'évaluer la dissimilarité globale entre segments adjacents d'un individu : → D(− x)=1− nbseg−1 P i=1 SimSeg(segi, segi+1 ) nbseg − 1 (5.15) → avec nbseg le nombre de segments de − x. 16. Cette similarité aurait pu correspondre à une similarité calculée directement par un cosinus entre les vecteurs des segments (plutôt qu'en réalisant la moyenne des similarités entre phrases) mais cela aurait impliqué un trop grand nombre de calculs (nouvelles pondérations, nouvelles similarités). Cette solution nous a alors paru plus raisonnable dans un contexte où le nombre d'évaluations risque d'être relativement conséquent. Chapitre 5. Segmentation thématique Génération de la population initiale
Les individus de la population initiale sont générés de manière aléatoire, tout en visant à produire un ensemble d'individus suffisamment hétérogène. Ainsi, afin d'obtenir un degré de diversité suffisant, les frontières de chaque individu de la population initiale sont déterminées en fonction de celles des autres : la probabilité de déterminer une frontière à une position donnée pour un individu est inversement proportionnelle au nombre de fois que cette frontière a déjà été choisie, pour les individus précédemment créés. La taille de la population N est déterminée empiriquement. Par ailleurs, les algorithmes génétiques ont tendance à converger plus facilement vers des solutions "optimales" lorsque les individus de la population initiale sont déjà des solutions relativement acceptables [Goldberg, 1989]. Nous avons alors expérimenté plusieurs insertions d'individus résultant d'une méthode de segmentation externe. Les résultats concernant ces différentes insertions d'individus dans la population initiale sont présentés et discutés en section 5.4.3.
Opérateurs génétiques
Trois opérateurs sont utilisés dans le processus d'évolution : la sélection, le croisement et la mutation. À chaque génération, l'algorithme sélectionne N individus et en produit N nouveaux afin de maintenir une population de taille fixe. Les individus sont sélectionnés dans P̄ ∪ Pt par sélection proportionnelle "Roulette Wheel" selon leur valeur d'adaptation 17 (voir section 4.2). Parmi les individus sélectionnés, tant que le nombre de N nouveaux individus n'est pas atteint, deux individus sont choisis aléatoirement pour en produire deux nouveaux par croisement à un point (voir section 4.2). Deux opérateurs de mutation sont appliqués : une mutation remplaçant un parent par un individu produit aléatoirement avec une probabilité P ms et une mutation décalant d'une phrase une frontière du nouvel individu avec une probabilité P mc. Ces deux opérateurs sont complémentaires, puisque le premier permet d'explorer des zones très éloignées des individus envisagés, alors que le second permet plutôt de réaliser un raffinement des solutions déjà rencontrées. L'algorithme de Zitzler prévoit l'utilisation d'un processus de clustering pour opérer une réduction de l'archive lorsque le nombre d'individus non-dominés devient trop important (voir section 4.3.2). Ainsi, lorsque le nombre de propositions de segmentation appartenant à l'archive dépasse les 3 × N individus, une réduction de l'archive est opérée par utilisation de la méthode de clustering hiérarchique Group Average (voir section 2.3.3). 124 5.4 Vers une segmentation globale et cohérente des textes scores des deux objectifs de cohésion et de dissimilarité des segments.
Lorsque l'algorithme de clustering a atteint un nombre de N groupes, le processus identifie l'élément le plus au centre de chaque groupe. Ces représentants de groupes sont conservés dans l'archive, les autres individus sont tout simplement supprimés.
Extraction d'une solution
Tous les documents ne nécessitant pas le même nombre de générations pour atteindre une segmentation satisfaisante, l'algorithme s'arrête au bout d'un nombre de générations sans évolution significative de la population. P̄ constitue, à la fin du processus, l'ensemble des segmentations potentielles d'un texte. Une solution unique doit alors être extraite de cette archive. Le choix de cette solution dépend d'une fonction d'agrégation des deux critères C(~x) et D(~x) : Ag(~x) = C(~x) + α × D(~x) (5.16) La solution extraite est celle obtenant le meilleur score selon cette fonction d'agrégation. Le coefficient α pondère le second objectif par rapport au premier. Il agit sur les caractéristiques de la segmentation finale du texte et permet donc de paramétrer l'algorithme selon le critère que l'on souhaite privilégier et surtout, selon la fréquence de segmentation désirée.
Paramétrage de l'algorithme
La détermination des paramètres d'un algorithme génétique est toujours une tâche complexe en raison des phénomènes stochastiques qu'il met en jeu, ainsi que du très grand nombre de combinaisons de paramètres possibles [Lobo et al., 2007]. Dans le cas de SegGen, cette tâche est d'autant plus complexe que les tests doivent être réalisés sur un large ensemble de textes distincts. La qualité de la population, notée ci-après Eval(P̄ ), est év ée selon le score Ag(~x) de l'individu de P̄ possédant le meilleur score d'agrégation des critères (formule 5.16) : Eval(P̄ ) = M ax~x∈P̄ Ag(~x) (5.17) Une étude de différentes archives P̄ issues d'exécutions de SegGen sur de multiples textes a montré que le fait de pondérer le critère de dissimilarité par rapport au critère de cohésion d'un coefficient α = 5 (formule 5.16) permet la sélection d'un bon individu dans la majorité des cas. Le nombre d'individus N = 10, utilisé pour l'initialisation, la sélection et la production de nouveaux individus, apparait de prime abord fournir les meilleurs résultats. Les tests qui suivent utilisent donc ces valeurs. Dans le but d'ajuster les probabilités de mutation P ms et P mc, SegGen a été exécuté sur de nombreux textes du corpus AP (50, 2), pour chaque couple (P ms, P mc) entre (0, 0) et (1, 1), en faisant varier les valeurs d'un pas de 0.2.
La figure 5.5 représente l'évolution, au cours des générations, de la moyenne des scores 125
Chapitre 5. Segmentation thématique d'évaluation de la population Eval(P̄ ), enregistrés avec différentes combinaisons de probabilités de mutations
18. 6.042 40,80 20,80 40,60 60,80 40,100 40,0 0,80 6.04 Eval 6.038 6.036 6.034 6.032 6.03 0 Nombre de
Generations Figure 5.5 – Évolution de la population au cours des générations
Cette étude a tout d'abord montré la complémentarité des deux opérateurs de mutation puisque les résultats obtenus avec un seul opérateur sont les plus faibles. Le couple (P ms = 0.4, P mc = 0.8) apparait être le meilleur compromis puisqu'il permet la meilleure convergence de l'algorithme. Par ailleurs, avec ce couple de probabilités, un nombre maximal de 100 générations sans amélioration de la population semble être suffisant pour atteindre de bonnes solutions dans la majorité des cas. Le paramètre α utilisé dans la fonction d'agrégation des critères semble grandement influencer la segmentation finale. Le critère de cohésion C favorise les individus possédant un grand nombre de frontières, les petits segments ayant plus de chances de posséder uniquement des phrases fortement similaires. Au contraire, le critère de dissimilarité entre segments adjacents D favorise, quant à lui, les individus possédant peu de frontières, puisque les longs segments ont davantage de chances de contenir des phrases éloignées de celles du segment suivant. Le paramètre α a donc une influence sur le nombre de frontières final (voir figure 5.6). Selon les courbes
la figure 5.6, les meilleurs résultats selon le critère WindowDiff sont obtenus avec les valeurs entourant α = 5. Néanmoins, une valeur plus élevée permet d'obtenir une meilleure précision et une valeur plus faible un meilleur rappel. Cette valeur doit donc être fixée entre 4 et 6 selon la fréquence de segmentation souhaitée. Enfin, une étude de la taille de la population Pt a montré que des nombres d'individus supérieurs à N = 10 permettent à l'algorithme de converger plus rapidement vers de bonnes solutions (en nombre de générations), mais induisent un 18. 5.4 Vers une segmentation globale et cohérente des textes
0.24 0.7 0.235 0.68 0.23 0.66 0.225 0.64 Rappel WindowDiff
plus grand nombre d'évaluations d'individus. Par exemple, sur le corpus AP (50, 2), l'algorithme a besoin de 150 générations pour atteindre un score d'évaluation de la population Eval(P̄ ) = 6.04 lorsque la taille de la population courante est de N = 20 individus, contre 250 générations pour atteindre le même score avec N = 10 individus. Cependant, le nombre d'individus générés est plus important dans le premier cas (150 × 20 > 250 × 10), ce qui implique un plus grand nombre d'évaluations 0.22
0.215 0.6 0.21 0.58 0.205 0.56 0.2 3 4 5 6 Alpha 7 8 3 4 5 6 7 8 6 7 8 Alpha 5.5 Nombre de frontières 0.64 0.63 Precision 0.62 0.62 0.61 0.6 0.59 5 4.5 4 3.5 0.58 3 4 5 6 7 Alpha 8 3 4 5
Alpha Figure 5.6 – Résultats des expérimentations sur le paramètre α de SegGen d'individus (opération la plus coûteuse du processus).
Le problème inverse est observé lorsque N < 10, le nombre de générations nécessaires pour atteindre un score d'évaluation donné est bien trop important pour trouver une contre-partie dans le plus faible nombre d'individus évalués à chacune d'entre elles. N = 10 semble alors être la taille de population permettant d'observer les meilleures performances. 5.4.3 Évaluation des systèmes
Afin d'évaluer les performances de nos deux algorithmes de segmentation, quatre corpus ont été constitués par concaténation d'articles du corpus AP (voir section 127 Chapitre 5. Segmentation thématique 3.2) : AP (50, 2), AP (50, 4), AP (100, 4) et AP (100, 8) 19. À cela viennent s'ajouter deux corpus résultant de la concaténation d'articles du corpus ZIF F, notés ZF (100, 4) et ZF (100, 8), qui permettent d'évaluer la capacité des méthodes à segmenter des textes plus spécifiques 20. Chacun de ces six différents corpus constitue un ensemble de 350 documents sur lesquels diverses méthodes de segmentation sont appliquées pour déterminer les performances de nos approches. Les algorithmes ClassStruggle et SegGen ont été comparés aux méthodes suivantes : – Rand : Étant donné un corpus T (n, m), cette procédure crée aléatoirement m frontières dans chaque texte. Elle représente un point de référence auquel comparer les résultats, présentant le grand avantage de connaı̂tre le nombre de frontières à déterminer mais n'utilisant aucun mécanisme pour les positionner au niveau des ruptures thématiques ; – TT : La méthode TextTiling 21 [Hearst, 1994], certainement la plus populaire des méthodes de segmentation, est une extension de la méthode proposée dans [Morris and Hirst, 1991]. Elle est basée sur un concept de fenêtre de calcul qu'elle fait se déplacer sur le texte afin de comparer, en différentes positions, deux blocs de texte adjacents selon différents critères de cohésion lexicale (nombre de mots communs, nombre de mots nouveaux, nombre de chaı̂nes lexicales actives, etc..). Les paramètres principaux de TextTiling, c'est à dire la taille des blocs à comparer (soit la moitié de la taille de la fenêtre) et le pas de déplacement de la fenêtre, ont été étudiés de la même manière que ceux de nos méthodes sur nos corpus d'entraı̂nement. Les meilleurs résultats ont été obtenus avec des blocs de 120 mots (soit une fenêtre de 240 mots) et un pas de déplacement de 20 mots. Les résultats reportés dans cette section ont été obtenus en utilisant ces deux valeurs ; – C99 : L'algorithme C99 22 [Choi, 2000] est, selon de nombreuses études, l'une des méthodes existantes les plus performantes (voir par exemple [Bestgen and Piérard, 2006]). Il détermine, pour chaque couple d'unités textuelles adjacentes, un score correspondant au nombre de couples d'unités voisines (appartenant aux k couples d'unités les plus proches) possédant une similarité inférieure. Il réalise un classement des couples d'unités selon ce score puis dispose les unités sur un plan 2D selon leur position dans le texte (d'une manière similaire à la méthode DotPlotting [Reynar, 2000]). L'algorithme recherche alors les zones du plan les plus denses selon la position des unités dans le classement établi. Les zones qui maximisent cette densité forment les segments du texte. 19. Afin de ne pas biaiser les résultats, ces corpus utilisent des articles différents de ceux utilisés pour le paramétrage des algorithmes. 20. L'application de méthodes de segmentation thématique sur ces deux corpus, dont les textes sont plus homogènes puisque composés d'articles traitant tous d'un même domaine (l'informatique), simule mieux la recherche des ruptures thématiques sur des textes réels. 21. Disponible à l'adresse : www.sims.berkeley.edu/ ̃hearst/ 22. Disponible à l'adresse : www.freddychoi.me.uk 128
5.4 Vers une segmentation globale et cohérente des textes
Le paramètre principal de C99, la taille du masque k, a été étudié sur les corpus d'entraı̂nement. Les meilleurs résultats ont été obtenus avec une taille de masque k = 11, cette valeur est donc celle employée dans les expériences qui suivent ; – JI : Cette méthode est une implémentation de l'algorithme de programmation dynamique présenté dans [Ji and Zha, 2003]. Elle nous paraı̂t constituer l'approche existante la plus performante, surpassant bien souvent la méthode C99 en terme de qualité des frontières déterminées. Afin d'augmenter les capacités d identification des ruptures thématiques les plus importantes du texte, la méthode JI commence par supprimer les termes génériques ou uniformément distribués, avant d'appliquer un processus de traitement d'image (anisotropic diffusion [Perona and Malik, 1990]) sur la matrice des similarités pour en amplifier les contrastes (et ainsi révéler, de manière plus nette, des zones de texte possédant une forte cohésion lexicale). La méthode cherche ensuite, par un algorithme de programmation dynamique, à minimiser un coût de segmentation global qui dépend de la cohésion interne des segments. Les paramètres principaux de l'algorithme, ceux du processus de traitement d'image, ont été expérimentés sur les corpus d'entrainement. Les meilleurs résultats ont été obtenus au bout de 10 itérations avec un coefficient de conduction de 20 et un coefficient d'évolution λ de 0.2 (valeurs qui ont aussi permis l'obtention des meilleurs résultats dans [Ji and Zha, 2003]). Ces valeurs sont celles utilisées dans les expérimentations qui suivent. Sept versions de ClassStruggle ont été expérimentées : – CR : Une version n'utilisant pas de processus de clustering préliminaire mais qui génère les clusters initiaux aléatoirement (12 clusters pour les documents de 100 phrases et 7 pour les documents de 50, c'est à dire autant que les moyennes observées en utilisant la méthode de clustering Single Pass) ; – CSP (0.7), CSP (0.75) et CSP (0.8) : Trois versions de ClassStruggle utilisant la méthode de clustering Single-Pass (décrite par l'algorithme 2.1) pour générer les clusters initiaux. β est respectivement égal à 0.7, 0.75 et 0.8 ; – CN D(0.7), CN D(0.75) et CN D(0.8) : Trois versions de ClassStruggle qui utilisent un raffinement des classes obtenues par la méthode de clustering Single-Pass : la méthode de nuées dynamiques (décrite par l'algorithme 2.2) réaffecte chaque phrase à la classe qui lui est la plus similaire. Ce processus converge vers un état stable au bout de dix itérations en moyenne. Ces trois versions de ClassStruggle, utilisant respectivement une valeur de β égale à 0.7, 0.75 et 0.8, permettent d'évaluer l'influence de la qualité des clusters initiaux sur la segmentation finalement obtenue. Quatre versions de SegGen, chacune utilisant un coefficient α = 5, ont été expérimentées : – S : L'algorithme SegGen n'introduisant pas d'individu résultant d'une segmentation externe dans sa population initiale ;
5. Segmentation thématique
– SC99 : L'algorithme SegGen introduisant un individu résultant de C99 dans sa populations initiale ; – SCN D(0.7) : L'algorithme SegGen introduisant un individu résultant de CN D(0.7) dans sa populations initiale ; – SBoth : L'algorithme SegGen introduisant deux individus externes dans sa population initiale, l'un provenant de C99, l'autre de CN D(0.7). La méthode SegGen n'étant pas déterministe, nous avons commencé les expérimentations par une évaluation de la marge d'erreur de ses résultats, en calculant l'écart-type des moyennes des scores obtenus sur dix exécutions par corpus. L'écart-type observé pour le critère WindowDiff tourne autour de 0.015, pour le rappel autour de 0.01 et pour la précision autour de 0.012 sur chaque corpus. 5.4 Vers une segmentation globale et cohérente des textes AP(50,2) W P R N μ σ μ σ μ σ μ σ SCND(
0.7
)
0.46 1.02 0.89 0.38 0.93 0.43 0.36 0.31 0.40 0.33 0.26 0.22 0.22 0.22 0.21 0.71 0.75 0.38 0.90 0.42 0.42 0.35 0.41 0.34 0.37 0.36 0.37 0.36 0.05 0.26 0.32 0.52 0.09 0.49 0.54 0.55 0.50 0.54 0.58 0.61 0.61 0.61 0.19 0.22 0.22 0.35 0.19 0.30 0.36 0.39 0.30 0.34 0.40 0.39 0.39 0.38 0.05 0.54 0.63 0.62 0.16 0.68 0.62 0.52 0.72 0.68 0.60 0.69 0.69 0.69 0.19 0.38 0.38 0.36 0.29 0.35 0.38 0.39 0.38 0.37 0.36 0.37 0.37 0.37 2.02 4.21 4.22 2.71 3.88 3.39 2.62 2.10 3.12 2.79 2.11 2.44 2.47 2.45 0.98 1.39 1.42 1.48 2.76 1.66 1.40 1.20 1.43 1.38 1.10 1.32 1.36 1.34 SBoth 0.22 0.36 0.61 0.39 0.69 0.37 2.45 1.34 μ σ μ σ μ σ μ σ SCND(0.7) 0.55 0.97 0.54 0.35 0.79 0.40 0.33 0.29 0.37 0.30 0.25 0.20 0.20 0.19 0.15 0.66 0.45 0.30 0.42 0.41 0.29 0.23 0.39 0.31 0.25 0.22 0.22 0.21 0.04 0.27 0.40 0.51 0.07 0.48 0.52 0.53 0.50 0.53 0.55 0.62 0.63 0.65 0.09 0.14 0.19 0.28 0.19 0.23 0.26 0.28 0.23 0.26 0.28 0.29 0.29 0.29 0.04 0.59 0.64 0.62 0.12 0.65 0.60 0.52 0.68 0.66 0.53 0.61 0.64 0.66 0.09 0.25 0.26 0.26 0.17 0.27 0.27 0.28 0.28 0.27 0.29 0.27 0.27 0.28 4.20 9.52 6.81 5.62 7.07 7.21 5.23 4.37 7.12 5.30 4.30 4.19 4.48 4.50 1.57 2.33 2.09 2.18 2.96 2.94 2.29 1.86 2.83 2.23 1.82 1.87 2.10 2.17 SBoth 0.19 0.22 0.66 0.28 0.66 0.28 4.62 2.01 Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99 AP(100,4) Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99 W P R N AP(50,4) W P R N μ σ μ σ μ σ μ σ SCND(0.7) 0.53 0.40 0.38 0.29 0.50 0.29 0.27 0.28 0.27 0.23 0.25 0.19 0.18 0.17 0.14 0.26 0.31 0.20 0.39 0.21 0.20 0.17 0.21 0.17 0.16 0.17 0.18 0.18 0.06 0.49 0.48 0.57 0.18 0.57 0.60 0.61 0.58 0.60 0.63 0.68 0.68 0.68 0.12 0.26 0.23 0.26 0.22 0.27 0.29 0.38 0.28 0.27 0.38 0.28 0.28 0.28 0.06 0.49 0.59 0.64 0.18 0.65 0.58 0.49 0.67 0.60 0.52 0.60 0.64 0.66 0.12 0.26 0.27 0.28 0.20 0.29 0.30 0.29 0.29 0.29 0.31 0.27 0.27 0.25 4.03 4.31 4.94 4.21 4.24 4.67 3.91 3.03 4.47 3.96 3.42 3.49 3.74 3.71 1.45 1.40 1.31 1.55 3.16 1.78 1.54 1.37 1.62 1.60 1.51 1.40 1.51 1.50 SBoth 0.17 0.18 0.69 0.28 0.67 0.28 3.75 1.45 μ σ μ σ μ σ μ σ SCND(0.7) 0.57 0.37 0.33 0.29 0.55 0.30 0.28 0.29 0.29 0.26 0.28 0.22 0.18 0.18 0.10 0.16 0.16 0.17 0.14 0.16 0.13 0.12 0.17 0.13 0.14 0.12 0.11 0.12 0.08 0.47 0.53 0.56 0.17 0.54 0.57 0.59 0.55 0.60 0.61 0.67 0.69 0.69 0.09 0.17 0.17 0.19 0.16 0.18 0.21 0.28 0.19 0.19 0.19 0.21 0.19 0.18 0.08 0.56 0.59 0.61 0.14 0.63 0.56 0.48 0.64 0.60 0.51 0.56 0.65 0.66 0.09 0.18 0.20 0.22 0.13 0.21 0.22 0.20 0.21 0.20 0.20 0.20 0.21 0.21 8.15 9.82 9.15 8.53 7.49 9.61 7.86 6.11 9.44 8.10 6.49 6.50 7.75 7.83 2.30 2.03 2.23 2.52 3.03 2.80 2.45 2.26 2.46 2.35 2.33 1.80 2.11 2.21 SBoth 0.17 0.11 0.70 0.16 0.68 0.19 7.87 2.02 Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99 AP(100,8) Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99 W P R N
Table 5.1 – Évaluation des méthodes de segmentation sur le corpus AP lisation de techniques de clustering plus performantes permettrait à ClassStruggle de produire des segmentations d'encore bien meilleure qualité. Les résultats obtenus par les versions de ClassStruggle appliquant un processus de raffinement des clusters par la méthode de Nuées Dynamiques (versions CN D ) semblent conforter cette hypothèse puisqu'une amélioration significative de la qualité des segmentations produites est observée. SegGen, qui considère des propositions de segmentation plutôt que de déterminer des frontières de manière incrémentale, obtient des résultats nettement supérieurs à toutes les autres méthodes sur tous les critères, surtout sur les corpus ne possédant pas un grand nombre de frontières à retrouver (i.e., AP (50, 2), AP (100, 4) et Se
gmentation thématique ZF(100,4) W P R N μ σ μ σ μ σ μ σ SCND(0.7) 0.55 0.85 0.46 0.35 0.81 0.43 0.33 0.33 0.42 0.33 0.32 0.20 0.20 0.19 0.12 0.62 0.38 0.39 0.39 0.45 0.32 0.28 0.42 0.31 0.28 0.19 0.18 0.19 0.04 0.25 0.39 0.46 0.06 0.45 0.47 0.48 0.45 0.47 0.48 0.60 0.62 0.64 0.07 0.12 0.18 0.25 0.09 0.25 0.26 0.27 0.24 0.26 0.27 0.28 0.30 0.30 0.04 0.58 0.63 0.61 0.10 0.61 0.59 0.51 0.62 0.60 0.53 0.60 0.63 0.63 0.07 0.23 0.24 0.26 0.11 0.28 0.28 0.24 0.24 0.27 0.23 0.27 0.27 0.28 3.82 8.78 6.26 5.34 6.92 6.31 4.80 4.12 6.35 5.01 4.35 4.12 4.30 4.31 1.02 2.08 2.07 2.20 2.83 2.96 1.99 1.81 2.31 2.17 1.75 1.62 1.57 1.63 SBoth 0.19 0.18 0.65 0.29 0.63 0.28 4.33 1.60 Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99 ZF(100,8) W P R N μ σ μ σ μ σ μ σ SCND(0.7) 0.57 0.37 0.34 0.30 0.56 0.32 0.30 0.29 0.31 0.30 0.29 0.23 0.20 0.20 0.09 0.16 0.16 0.20 0.15 0.15 0.18 0.15 0.15 0.17 0.19 0.12 0.14 0.19 0.07 0.45 0.50 0.52 0.16 0.50 0.52 0.53 0.50 0.53 0.54 0.66 0.66 0.67 0.07 0.16 0.16 0.21 0.16 0.16 0.18 0.19 0.17 0.20 0.20 0.20 0.19 0.18 0.07 0.53 0.54 0.56 0.12 0.56 0.54 0.47 0.57 0.55 0.50 0.54 0.58 0.60 0.07 0.16 0.17 0.18 0.10 0.20 0.23 0.17 0.15 0.19 0.13 0.17 0.18 0.21 8.04 9.18 8.68 7.91 7.33 8.76 6.80 5.93 8.82 7.02 6.13 6.33 7.06 1.93 1.95 1.87 2.18 3.05 2.66 2.30 1.42 2.83 2.46 1.64 1.59 1.55 1.52 SBoth 0.19 0.20 0.67 0.20 0.62 0.20 7.25 1.54 Rand TT C99 JI CR CSP (0.7) CSP (0.75) CSP (0.8) CND(0.7) CND(0.75) CND(0.8) S SC99
Table 5.2 – Évaluation des méthodes de segmentation sur le corpus ZIFF ZF (100, 4)).
TextTiling et C99 semblent rencontrer des difficultés à s'adapter au nombre de frontières à retrouver, la longueur des textes conditionnant largement le nombre de frontières qu'elles détectent. SegGen paraı̂t être plus à même de s'adapter à ces variations. Sur les corpus qui possèdent un grand nombre de frontières à retrouver (i.e., AP (50, 4) et AP (100, 8)), SegGen semble néanmoins rencontrer quelques difficultés à produire des individus suffisamment segmentés. 5.5 Vers un mode d'évaluation plus équitable
perdre un peu de son avantage sur les méthodes existantes, tout particulièrement par rapport à la méthode JI. En effet, alors que ses résultats sont légèrement meilleurs que ceux obtenus par JI sur les corpus AP (table 5.1), les deux méthodes obtiennent des résultats comparables sur les corpus ZIF F (table 5.2). Sur ces corpus, les phrases des textes étant plus similaires, le processus de clustering rencontre plus de difficultés à distinguer les différentes thématiques abordées. L'utilisation de techniques de clustering plus évoluées, notamment par utilisation de ressources sémantiques spécifiques, devrait permettre d'améliorer les résultats sur ce genre de corpus. SegGen, quant à lui, ne semble pas rencontrer réellement plus de difficultés sur ces corpus que sur les autres. Un test de Student 25 a montré que les différences entre les résultats, selon le critère WindowDiff, obtenus par notre algorithme de segmentation SegGen et ceux obtenus par les autres méthodes de segmentation sont statistiquement significatives avec un degré de certitude de 99%, toutes les valeurs étant supérieures à 2.57. Enfin, les différences en terme de temps de calcul semblent légères : sur le corpus AP (100, 8), corpus impliquant l'espace de recherche le plus étendu, notre algorithme SegGen met en moyenne 3 secondes pour produire 100 générations de populations sur un Pentium 4, 3GHz PC. La méthode ClassStruggle, à l'instar des autres méthodes telles que C99 ou TextTiling, produit une segmentation d'un document en une seconde seulement environ. Selon l'application, la différence de temps de calcul nécessaire entre la méthode SegGen et les autres peut sembler significative, mais pour la segmentation d'un corpus de textes avant l'application d'approches telles que celles dites de Passage Retrieval par exemple, l'utilisation d'une telle méthode légèrement plus coûteuse paraı̂t tout à fait raisonnable. 5.5 Vers un mode d'évaluation plus équitable
Tel que l'on a pu le voir en section 5.3.2, les méthodes de segmentation thématique sont généralement évaluées par comparaison des frontières qu'elles déterminent avec celles contenues dans des segmentations de référence. Outre les nombreuses difficultés que pose la constitution de telles références (voir section 5.3.1), ce type d'évaluation présente, selon nous, l'inconvénient majeur d'être bien trop rigide face aux segmentations proposées. La segmentation thématique d'un texte est en effet une tâche très subjective et de très nombreuses solutions peuvent se justifier. Les segmentations obtenues par les méthodes dépendent de nombreux facteurs, tels que leur sensibilité face aux changements thématiques ou le point de vue spécifique qu'elles peuvent adopter 26. Le fait d'évaluer les méthodes sur leurs 25. Le 99% Student t-test est basé sur la moyenne, l'ecart-type et le cardinal de deux ensembles de resultats. Il utilise une p-valeur égale à 2.57 pour s'assurer avec un coefficient de certitude de 99% que les différences entre deux collections de resultats sont statistiquement significatives. 26. Par exemple, la méthode proposée dans [Bellot, 2000] adopte un point de vue inhabituel puisqu'elle réalise une segmentation orientée requête. Chapitre 5. Segmentation thématique
capacités à retrouver les frontières contenues par une segmentation de référence implique, de la part des méthodes, d'appréhender le texte de la même manière que lors de la détermination des frontières de référence. Dans le cas contraire, les résultats obtenus risquent d'être bien médiocres. Les méthodes ne possédant pas les caractéristiques requises pour se conformer à la segmentation de référence sont largement défavorisées par rapport aux méthodes correctement formatées. Nous commençons cette section par une analyse de la mesure WindowDiff proposée dans [Pevzner and Hearst, 2002]. Cette étude mettant en évidence un certain nombre de biais, notamment concernant l'absence de prise en compte des risques encourus par les méthodes, nous proposons d'adapter la mesure pour corriger ces biais identifiés (qui dépassent la seule rigidité inhérente à l'utilisation d'une référence) et lui donner une certaine flexibilité face aux propositions faites par les méthodes de segmentation à évaluer. Enfin, ces adaptations ne pouvant pas permettre une réelle prise en compte des caractéristiques propres à chaque méthode (puisque la mesure résultante reste tout de même basée sur des segmentations de référence), nous proposons une mesure d'évaluation alternative, basée sur la stabilité des méthodes face à des changements textuels, permettant ainsi une évaluation centrée sur les méthodes elles-mêmes plutôt que sur une norme instaurée par une quelconque autorité référente.
5.5.1 Analyse de la mesure d'évaluation WindowDiff
Avant de réaliser quelque étude que ce soit concernant la mesure WindowDiff, il est possible d'observer un premier biais (mineur certes) relatif à l'importance moindre accordée par la mesure aux frontières situées en tout début et fin de texte. Alors que ces frontières peuvent paraı̂tre aussi importantes que les autres (elles uvent par exemple correspondre à la séparation des quelques phrases d'introduction, très générales, de la suite du texte pouvant être relatif à un point bien spécifique), la formule 5.3 (donnée en section 5.3.2) ne pénalise pas autant les erreurs situées entre les phrases 1 et k et entre les phrases n−k +1 et n autant que les autres (tel que défini dans la formule 5.3, k correspond à la taille de la fenêtre de calcul utilisée par la mesure). Puisque situées en bord de texte, ces positions sont considérées
Figure 5.7 – Extrémités du texte et WindowDiff un plus petit nombre de fois que celles situées entre les phrases k et n − k + 1 par 134
5.5 Vers un mode d'évaluation plus équitable la fenêtre de calcul de WindowDiff. La figure 5.7 illustre deux exemples de segmentation (H1 et H2 ) d'un texte de 18 phrases dont la référence (R) ne possède aucune frontière (donc k = 9). Dans cette figure, les phrases sont représentées par des croix et les frontières par des barres horizontales. À première vue, les deux segmentations présentent un même taux d'erreur : toutes deux définissent deux frontières alors que la référence n'en possède pas. Elles devraient alors obtenir un score WindowDiff identique. Or, la segmentation H2, dont les erreurs sont situées plus en bord de texte, est effectivement moins pénalisée que H1 : WindowDiff(H2 ) = 49 alors que WindowDiff(H1 ) = 69. Ce problème pourrait être réglé en ajoutant k phrases fictives en début et fin de texte et évaluer la segmentation en prenant en compte ces décalages dans les calculs. Alternativement, il peut être résolu en transformant la formule 5.3 de la manière suivante :
1 WindowDiff (H, R) = × (n + k − 2) k P (|f r(R, 1, i) − f r(H, 1, i)|) + i=2 n−k (5.18) P (|f r(R, i, i + k) − f r(H, i, i + k)|) + i=1 n−1 P (|f r(R, i, n) − f r( H, i, n)|) i=n−k+1
Considérant cette nouvelle formule, nous cherchons maintenant à étudier l'influence que peuvent avoir le nombre de frontières déterminées dans la segmentation à évaluer et le nombre de frontières présentes dans la segmentation de référence sur le score de WindowDiff comparant ces deux segmentations. Afin d'estimer la probabilité d'obtenir un score élevé de WindowDiff selon ces deux nombres de frontières, 1000 instances de BR et BH ont été générées aléatoirement, sur un texte fictif de 100 phrases (bi ∈ {1,., 99}), pour chaque couple de nombres de frontières (|BR |, |BH |) ∈ {0,., 20}2 possibles. Les graphes de la figure 5.8 représentent les scores de WindowDiff obtenus sur ces différentes segmentations générées aléatoirement.
| 21,024
|
d765234721ea0846c61fc48e0d8f0a39_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,019
|
Chromosomes synthétiques
|
None
|
French
|
Spoken
| 6,278
| 11,577
|
médecine/sciences 2019 ; 35 : 753-60
Chromosomes
synthétiques
médecine/sciences
Au cours des 20 dernières années, le séquençage d’ADN
s’est fortement démocratisé et son coût a considérablement diminué, passant de 100 millions de dollars par
génome en 2001 à moins de 1 000 dollars aujourd’hui.
Cette technologie, très largement répandue dans les
laboratoires médicaux et de recherche, s’est même
introduite dans les foyers en permettant aux particuliers d’obtenir la séquence de leurs propres génomes.
Bien que les coûts actuels soient encore élevés, la synthèse d’ADN est appelée à connaître un essor similaire
et devenir dans un futur proche un outil incontournable
dans le domaine des biotechnologies. Les récentes
innovations technologiques permettent de générer des
molécules d’ADN toujours plus grandes et plus nombreuses. En 1979, le premier gène synthétique était
constitué de 207 paires de bases (pb) [1]. Depuis, des
fragments d’ADN de plus d’un million de pb (Mpb) ont
été synthétisés et assemblés atteignant, pour certains,
la taille de chromosomes complets [2,3] (Figure 1). Ces
avancées marquent les débuts de l’ère de la « génomique synthétique », une discipline émergente de
la biologie se situant à l’interface entre science et
m/s n° 10, vol. 35, octobre 2019
https://doi.org/10.1051/medsci/2019153
Rodrigue_Synthese.indd 753
Vincent Baby1,2, Fabien Labroussaa3,
Carole Lartigue1,2, Sébastien Rodrigue4
1
INRA, UMR 1332 de biologie du
fruit et pathologie, 71 avenue
E. Bourlaux, 33140 Villenave
d’Ornon, France.
2
Univ. Bordeaux, UMR 1332 de
biologie du fruit et pathologie,
71 avenue E. Bourlaux 33140
Villenave d’Ornon, France.
3
Institute of veterinary
bacteriology of Bern, Vetsuisse
Faculty, University of Bern,
3001 Berne, Suisse.
4
Département de biologie,
Université de Sherbrooke,
2500 boulevard de l’Université,
J1K 2R1 Sherbrooke, Québec,
Canada.
Sebastien.Rodrigue@
USherbrooke.ca
SYNTHÈSE
> Depuis les dix dernières années, les techniques
de synthèse et d’assemblage d’ADN se sont grandement améliorées. La construction de molécules d’ADN synthétiques devient maintenant
beaucoup plus simple et abordable de sorte qu’il
est possible de reconstruire des chromosomes
synthétiques complets. Nous assistons donc aux
débuts de la génomique synthétique, qui vise la
construction de génomes conçus sur mesure pour
l’étude et l’utilisation de systèmes biologiques.
De la synthèse des premiers génomes viraux
jusqu’à la reconstruction des seize chromosomes
de la levure, en passant par la première cellule
bactérienne contrôlée par un génome entièrement synthétique, nous discutons des découvertes majeures, des aspects réglementaires et
éthiques ainsi que du potentiel de cette nouvelle
discipline pour le futur. <
REVUES
Réécrire le code de la vie
ingénierie et dont l’un des objectifs
est de créer des organismes dont les
génomes auront été complètement
prédéterminés.
Après avoir résumé les techniques permettant de synthétiser et
d’assembler de grandes molécules d’ADN, nous présenterons dans
cette revue les résultats marquants de cette nouvelle discipline, la
réglementation actuelle, qui incite à la vigilance, les aspects éthiques
de cette recherche, ainsi que les développements attendus pour les
prochaines années.
Techniques de synthèse et d’assemblage de fragments d’ADN
Bien que de nouvelles technologies de synthèse de molécules fondées sur l’utilisation d’enzymes soient en cours de développement et
suscitent beaucoup d’intérêt [4], il n’existe pas encore de méthode
permettant de créer chimiquement de longues molécules d’ADN sans
accumuler un nombre important de mutations [5]. Les techniques
actuelles reposent donc sur un assemblage progressif de courts
fragments d’ADN simple-brin, les oligonucléotides, pour lesquels le
taux d’erreur demeure relativement faible pour des tailles atteignant
jusqu’à 200 nucléotides. La production de ces oligonucléotides par
l’approche traditionnelle de la chimie des phosphoramidites1 stagne
depuis quelques années à un coût d’environ 0,05-0,15 dollar par
nucléotide en fonction de la quantité produite. Cependant, l’introduction récente de puces à ADN permet d’augmenter considérablement le
1
Les nucléosides phosphoramidites sont utilisés depuis les années 1980 pour la synthèse chimique d’ADN.
Cette réaction progresse en ajoutant un nucléotide de l’extrémité 3’ vers l’extrémité 5’ des molécules et
utilise habituellement un support solide ainsi qu’un groupement protecteur.
753
24/09/2019 11:17:03
Taille de la construction synthétique (nucléotides)
10 000 000
M. mycoides subsp. capri [20]
1 000 000
M. genitalium [10]
100 000
S.cerevisiae
chrXII [10]
Figure 1. Évolution de la capacité de synthèse
de génomes entiers en fonction du temps.
Les techniques de synthèse et d’assemblage
permettent de produire des constructions
d’ADN de plus en plus grandes, qui peuvent
maintenant atteindre plusieurs millions de
nucléotides.
recombinaison in vivo4 [8]. Des molécules d’ADN dont la taille finale varie
Poliovirus [14]
de quelques centaines de pb jusqu’à
pUC182Sfi [54]
1 000
plusieurs mégabases [9] peuvent ainsi
être assemblées (Figure 2). Alors que
des assemblages de taille inférieure
100
Tyrosine
ou égale à 10 kpb peuvent facilement
ARNt suppresseur
être conservés en solution ou amplifiés
[1]
10
de nouveau par PCR, si nécessaire, les
1975
1980
1985
1990
1995
2000
2005
2010
2015
2020
assemblages de plus grandes tailles
Année de parution
doivent être maintenus dans un vecteur. Ces vecteurs contiennent généranombre de molécules produites et de diminuer significativement le prix lement une origine de réplication à copie unique, un
des oligonucléotides à moins de 0,01 dollar par nucléotide. Ces puces système de partitionnement, et au moins un marqueur
servent de support physique sur lequel un grand nombre d’oligonucléo- de sélection. Ces éléments permettent d’assurer la
tides de séquences différentes peuvent être synthétisés en parallèle, pérennité des fragments d’ADN clonés chez l’orgaaugmentant ainsi le rendement de la production. Ces courtes molé- nisme hôte choisi. Par exemple, les BAC (bacterial
cules d’ADN simple-brin peuvent ensuite être assemblées en utilisant artificial chromosome) sont utilisés chez les bactéries
des méthodes souvent apparentées à la réaction en chaîne par poly- comme Escherichia coli, les YAC (yeast artificial chromérase (polymerase chain reaction ou PCR) afin d’obtenir des frag- mosome) chez la levure Saccharomyces cerevisiae, les
ments d’ADN pouvant atteindre quelques centaines à quelques milliers HAC (human artificial chromosome) dans des cellules
de pb (Figure 2). Plusieurs entreprises proposent de synthétiser ces humaines et les PAC (plant artificial chromosome)
fragments à un coût inférieur à 100 dollars par millier de pb (kpb), chez les plantes. Le développement de protocoles de
incitant ainsi les clients à commander des séquences d’ADN « prêtes transformation efficaces permettant d’introduire ces
à l’emploi » plutôt que de les amplifier par PCR puis, si nécessaire, longues molécules d’ADN dans un organisme d’intérêt
de les assembler pour obtenir le produit désiré. Malgré des avantages représente aussi un aspect essentiel pour l’utilisation
certains en termes de gain de temps et d’argent, certaines contraintes de tels chromosomes. L’électroporation a d’abord été
demeurent. En effet, de nombreuses séquences restent encore diffi- la méthode privilégiée, mais elle s’avère difficile pour
ciles à synthétiser à l’heure actuelle, notamment les séquences ayant des constructions dépassant 0,5 Mpb [10]. lulaire [13] dans la levure ont par la suite été déveLes fragments ainsi obtenus (comprenant entre 0,3 et 10 kpb) lors loppées. Ces méthodes permettent la transformation
d’une synthèse initiale (Figure 2) peuvent à leur tour être combi- des cellules avec des molécules d’ADN plus grandes,
nés par assemblages itératifs en faisant appel à des techniques certaines pouvant même dépasser 1,5 Mpb.
telles que l’assemblage de Gibson2 [6], le Golden Gate3 [7] ou la
A
10 000
2
La méthode de Gibson permet d’assembler des fragments d’ADN. Elle est fondée sur la génération d’extrémités cohésives entre fragments suite à la dégradation partielle des extrémités 5’ par l’exonucléase
T5. Les extrémités complémentaires des fragments ainsi dénudés se lient spécifiquement par hybridation
avant qu’une ADN polymérase et une ligase thermostable permettent de les joindre de manière covalente.
3
La technique de Golden Gate repose sur l’utilisation d’enzymes de restriction de type IIS clivant l’ADN en
aval de leur site de liaison, créant ainsi une extrémité cohésive de quelques nucléotides dont la séquence
peut être déterminée par l’expérimentateur. Des fragments possédant des extrémités cohésives compatibles peuvent ainsi être assemblés dans un ordre précis à l’aide d’une ligase d’ADN.
754
Rodrigue_Synthese.indd 754
4
La recombinaison homologue peut être suffisamment efficace chez certains
organismes comme la levure pour permettre de joindre des fragments d’ADN dans
un ordre dépendant de séquences parfaitement homologues présentes à l’extrémité
des molécules à assembler.
5
Levure dépourvue de sa paroi, exposant sa membrane plasmique.
m/s n° 10, vol. 35, octobre 2019
24/09/2019 13:57:17
Assemblage de
courts fragments
d’ADN double-brin
(1-10kpb)
Assemblage de
longs fragments
d’ADN double-brin
(25-100kpb)
Assemblage de
chromosomes
synthétiques
(0,2-1 Mpb)
Les génomes synthétiques : des virus aux cellules eucaryotes
Plus la taille d’une molécule d’ADN à assembler est grande, plus sa
construction et son introduction dans un organisme à modifier deviennent
complexes. Il n’est donc pas surprenant que les génomes viraux de petites
tailles (5 à 30 kpb), aient été les premiers à être synthétisés.
Le premier génome entièrement synthétique fût celui du poliovirus,
l’agent responsable de la poliomyélite, en 2002 [14]. Ce génome de
7 740 nucléotides a été synthétisé en trois fragments issus d’oligonucléotides synthétiques. Les fragments ont ensuite été clonés dans des
plasmides qui ont enfin été combinés par digestion et ligation enzymatiques. La transcription de cet ADN synthétique en ARN viral a généré
des poliovirus infectieux après transfection [14]. En 2003, l’équipe
de John Craig Venter a développé une méthode d’assemblage de fragments d’ADN qui a permis de reconstruire le génome du bactériophage
ΦX174 en moins de 15 jours [15]. Chacun des deux brins d’ADN du
virus ont été synthétisés en courts oligonucléotides de 42 bases qui
ont été assemblés dans une réaction inspirée de la PCR pour obtenir
un seul chromosome linéaire de 5 386 pb. Ces deux expériences ont
m/s n° 10, vol. 35, octobre 2019
Rodrigue_Synthese.indd 755
REVUES
Figure 2. Résumé des étapes de
conception et de construction d’un
génome synthétique. Des oligonucléotides synthétisés chimiquement
sont habituellement assemblés in
vitro en éléments pouvant atteindre
quelques milliers de paires de bases
(pb). Ceux-ci peuvent ensuite être
combinés in vivo ou in vitro pour
former des fragments pouvant aller
jusqu’à environ 100 kpb. Finalement,
un assemblage de ces fragments
peut être complété in vivo pour obtenir des chromosomes complets de
l’ordre du Mpb.
SYNTHÈSE
Synthèse d’oligonucléotides
(50-200 nucléotides)
permis d’établir les bases des
futurs assemblages de génomes.
Depuis, plusieurs autres virus
ont été synthétisés, comme le
génome du bactériophage T7,
celui du virus de la grippe espagnole de 1918 ou encore du virus
de l’immunodéficience humaine
(VIH) (Tableau I). À l’heure
actuelle, la synthèse de génomes
viraux, que ce soit pour des virus
à ADN ou à ARN, des virus pathogènes ou non-pathogènes, et
quelles que soient leurs tailles
(quelques milliers à plusieurs
centaines de nucléotides), pose relativement peu de
difficultés. Elle fournit un outil puissant pour étudier
la fonction des gènes et mieux appréhender les mécanismes gouvernant la pathogénicité des virus. Il est
aussi possible de recoder entièrement ces génomes
viraux en jouant, par exemple, sur la dégénérescence
des codons. Ces altérations permettent d’envisager des
stratégies de lutte totalement inédites. Par exemple,
des vaccins candidats, à base de virus atténués ou
après modification de leurs spécificité d’hôtes, sont
actuellement à l’étude [16-19].
Quelques années après la synthèse du génome du phage
ΦX174, l’équipe de Venter a publié la synthèse complète d’un premier génome bactérien, celui de Mycoplasma genitalium [10]. Cette bactérie, qui possède
le plus petit génome naturel permettant à une cellule
de croître de manière autonome, appartient à la classe
des Mollicutes, dont les membres sont caractérisés par
leur petit génome et l’absence de paroi cellulaire. Le
génome de M. genitalium a pu être assemblé de manière
755
24/09/2019 11:17:04
Génome synthétisé
Virus
Procaryotes
Eucaryotes et organelles
Poliovirus PV1(M)
Bactériophage ΦX174
Virus de la grippe espagnole de 1918
HERV-K(HML-2)
Bat SARS-like-SCoV
VIH-1-C
Bactériophage G4
Virus de l’hépatite C sous-type 1a
Bactériophage S13-like
CHIKV
Virus de la mosaïque du tabac
GALV-Nf
PRRSV
AcMNPV
Virus de la variole équine
Mycoplasma genitalium
Mycoplasma mycoides subsp. capri
JCVI-syn3.0
ADNm de souris
Saccharomyces cerevisiae chrIII
Saccharomyces cerevisiae chrII
Saccharomyces cerevisiae chrX
Saccharomyces cerevisiae chrXII
Saccharomyces cerevisiae chrV
Saccharomyces cerevisiae chrVI
Taille (kpb)
Référence
7,6
5,4
~13,0
9,5
29,7
11,0
5,6
9,6
5,4
11,9
6,4
4,7
15,4
145,3
212,8
583,0
1077,9
531,5
16,3
272,8
770,0
707,4
976,0
536,0
242,7
[14]
[15]
[48]
[55]
[56]
[57]
[58]
[59]
[60]
[61]
[62]
[63]
[64]
[65]
[49]
[8,10]
[20]
[3]
[28]
[33]
[34]
[37]
[2]
[35]
[36]
Tableau I. Chromosomes synthétiques publiés à ce jour.
progressive en utilisant une approche hiérarchique : des petits fragments d’ADN d’environ 5 à 7 kpb ont d’abord été assemblés in vitro en
fragments de plus en plus grands (jusqu’à environ 144 kpb), correspondant à des quarts de génomes, et propagés dans la bactérie E. coli.
Les quarts de génomes ont ensuite été assemblés par recombinaison
homologue chez la levure S. cerevisiae pour obtenir un chromosome
complet de 580 kpb. Cette méthode a par la suite été améliorée pour
reconstruire le génome de Mycoplasma mycoides sous-espèce capri,
en utilisant uniquement la levure S. cerevisiae [20]. Ce génome a
pu être transplanté dans la bactérie Mycoplasma capricolum sousespèce capricolum, pour produire la première bactérie contrôlée par
un génome synthétique. La poursuite de ces travaux a permis, en 2016,
la création d’une bactérie au génome minimal (JCVI-syn3.0) duquel la
majorité des gènes non-essentiels ont été retirés [3]. De nombreux
projets visant à apporter des modifications extensives au génome
naturel d’autres bactéries d’intérêt sont en cours, comme en témoigne
le récent développement de deux souches d’E. coli n’utilisant respectivement que 59 et 57 codons des 64 habituellement retrouvés chez tous
756
Rodrigue_Synthese.indd 756
les autres organismes [21, 22]. Le projet Minibacillus,
à l’image de JCVI-syn3.0, a, lui, pour objectif d’obtenir
une souche minimale de la bactérie modèle Bacillus
subtilis [23, 24] pour la caractériser entièrement et
déterminer le rôle précis de chaque gène essentiel. Des
projets de réductions des génomes de Streptomyces
avermitilis [25, 26] et Pseudomonas putida [27] sont
également en cours.
À la limite entre l’eucaryote et le procaryote, un chromosome mitochondrial de souris a déjà été synthétisé
entièrement à partir d’oligonucléotides en seulement
5 jours [28]. En revanche, un tel génome n’a pas encore
été introduit dans une mitochondrie vivante puisque
les techniques de transformation de cette organelle
restent difficiles à mettre en œuvre [29].
La suite logique consiste à générer les chromosomes
d’un organisme eucaryote, ce qui a été initié il y a
quelques années dans le cadre du projet Saccharomyces
m/s n° 10, vol. 35, octobre 2019
24/09/2019 11:17:04
6
Le chloroplaste est un organite qui assure la photosynthèse des végétaux. Comme la mitochondrie, le
chloroplaste contient une molécule d’ADN circulaire, ou chromosome chloroplastique.
7
Cette technique est fondée sur la propulsion à très haute vitesse de particules sur lesquelles est greffé
de l’ADN. Elle a été développée afin d’effectuer des transfections à travers la paroi des cellules végétales.
m/s n° 10, vol. 35, octobre 2019
Rodrigue_Synthese.indd 757
REVUES
Plusieurs laboratoires, par exemple aux États-Unis, en
Chine, en Angleterre, au Canada et au Japon, ont signifié
leur intérêt à y participer [46]. Plusieurs aspects, tant
technologiques qu’éthiques, devront cependant être
davantage développés avant d’entreprendre cette tâche
colossale. Actuellement, une douzaine de projets pilotes
sont en cours, dont un portant sur l’ingénierie de lignées
cellulaires afin de les rendre plus sûres et d’améliorer
leurs propriétés pour des applications biotechnologiques
[47] (➜).
(➜) Voir la Chronique
Il n’est cependant pas question génomique de
de modifier des organes ou des B. Jordan, m/s n° 8-9,
cellules germinales dans le cadre aoûit-septembre 2018,
page 749
de ce projet.
SYNTHÈSE
cerevisiae 2.0 (Sc2.0). Plusieurs laboratoires à travers le monde ont
uni leurs efforts dans le but de synthétiser les 16 chromosomes de
cette levure [30]. Le projet Sc2.0 ne vise pas seulement à recopier la
séquence du génome. Certaines modifications, comme la délétion de
plusieurs introns non-essentiels et le remplacement de tous les codons
d’arrêt de la traduction (codons STOP) UAG par un équivalent UAA,
ont aussi été apportées. L’insertion d’un site de recombinaison loxP à
la suite de chaque gène non-essentiel permet également l’utilisation
de la méthode SCRaMbLE (synthetic chromosome recombination and
modification by loxP-mediated evolution) [31] visant à mélanger
aléatoirement l’ordre des gènes afin d’obtenir puis d’étudier de nouvelles organisations génomiques supportant la vie. À la différence des
projets précédents, les chromosomes de la levure Sc2.0 ne sont pas
réassemblés pour ensuite être introduits intégralement dans la cellule.
Des fragments de chromosomes natifs sont en effet remplacés progressivement par leurs équivalents modifiés, d’une taille de 30 à 60 kpb. La
modification du génome est donc plus lente puisque la reconstruction
d’un seul chromosome peut prendre plus d’une trentaine de cycles de
remplacement nécessitant chacun des étapes de vérification portant
autant sur la viabilité de la souche que sur la validité de la séquence
introduite [2]. La reconstruction du génome Sc2.0 a débuté il y a
environ 10 ans par la synthèse d’un des bras des chromosomes VI
et IX de la levure [32] et s’est poursuivie avec la publication de la
synthèse complète du chromosome III trois ans plus tard [33]. Par la
suite, le consortium a annoncé la synthèse des chromosomes II [34], V
[35], VI [36], X [37] et XII [2] dans un numéro spécial de Science. La
reconstruction du génome de la levure se poursuit et culminera avec le
rassemblement des différents chromosomes ainsi synthétisés dans une
seule et même souche, ce qui devrait permettre d’obtenir le premier
organisme eucaryote portant un génome synthétique.
Les chromosomes artificiels sont également des outils convoités
par des chercheurs étudiant les plantes. Sans pouvoir actuellement
synthétiser des chromosomes complets de novo, des chromosomes
natifs peuvent être tronqués en mini-chromosomes qui peuvent être
modifiés. Cet outil a déjà été utilisé chez plusieurs organismes tels que
le maïs [38], Arabidopsis thaliana (arabette des dames) [39,40], le
riz [41] et l’orge [42]. Des avancées importantes ont également été
rapportées dans la construction et la manipulation de chromosomes
de chloroplastes6, beaucoup plus faciles à assembler et à modifier
que les chromosomes nucléaires [43]. Il est également possible de
les transformer en utilisant des méthodes comme la biolistique7 [44].
Le consortium international Genome Project-Write (GP-write), formé
en 2016 dans le but de promouvoir le développement des technologies
permettant la synthèse et l’initialisation des (➜) Voir la Chronique
génomes, propose de synthétiser un génome génomique de
humain modifié et de l’introduire dans une lignée B. Jordan, m/s n° 10,
octobre 2016, page 898
cellulaire [45] (➜).
Réglementation et considérations éthiques
La capacité à synthétiser des chromosomes et des
génomes provoque certains débats. La synthèse du
virus de la grippe espagnole de 1918 [48] et la récente
création d’une version chimérique du virus de la variole
équine [49] ont soulevé plusieurs questions sur le développement accidentel ou délibéré (➜) Voir le Forum de
d’organismes potentiellement J.N. Tourier, m/s n° 2,
février 2019, page 181
dangereux [52] (➜).
Bien que l’utilisation d’organismes pathogènes et de
toxines soit bien réglementée, il y a encore peu de règles
législatives déterminant les séquences de nucléotides
qui peuvent être synthétisées. Face aux inquiétudes,
le Department of health and human services (HHS)
américain a publié en 2009 un document intitulé Screening framework guidance for providers of synthetic
double-stranded DNA. Ce document décrit une procédure
volontaire à appliquer par les compagnies offrant des
services de synthèse d’ADN pour contrôler l’utilisation
de séquences à des fins malveillantes. Les grandes lignes
de cette approche consistent à établir l’identité des
acheteurs et à déterminer si les séquences qu’ils commandent peuvent représenter une menace. Cette stratégie d’autogouvernance par les compagnies a été adoptée
pour permettre aux chercheurs ayant les équipements et
la connaissance requise pour manipuler des organismes
potentiellement dangereux, d’effectuer leur recherche
sans contraintes majeures. Plusieurs compagnies se sont
concertées pour fonder le consortium International gene
synthesis consortium (IGSC) dont les membres doivent
suivre les recommandations du HHS. Ces entreprises
représentent 80 % des fournisseurs de séquences dans le
monde, assurant ainsi un certain niveau de contrôle du
risque biologique. Les risques associés à la biologie de
synthèse ont également été évalués en décembre 2010
par la Presidential commission for the study of bioethical
757
24/09/2019 11:17:04
Code génétique
synthétique
Gènes recodés
Génomes synthétiques 2.0
Nucléotides
synthétiques
Gènes synthétiques
issues (PCSBI). Dans un rapport publié sous le titre New directions: the
ethics of synthetic biology and emerging technologies, il est conclu que
les capacités actuelles de la biologie de synthèse ne représentent pas
un danger en fonction des connaissances scientifiques. Il recommande
toutefois une réévaluation de ces capacités au fil des années pour légiférer si un risque plus concret se manifeste. La génomique synthétique
possède donc un potentiel important pour mieux comprendre la vie ou
pour de nouvelles applications biotechnologiques. Il reste néanmoins
essentiel de demeurer vigilant pour éviter les usages éventuellement
dangereux ou malicieux.
La synthèse de chromosomes pose également des questions d’ordre
éthique. Dans un avenir prochain, la synthèse de chromosomes humains
sera techniquement possible et, combinée aux avancées d’ingénierie
de génome, des modifications majeures du génome humain pourront
être effectuées. Il sera par exemple possible de rendre résitantes des
cellules contre certaines maladies ou de leur ajouter de nouvelles
voies métaboliques. Bien que certaines de ces applications puissent
être bénéfiques dans le cadre de la recherche, il est important de se
demander si de telles pratiques sont souhaitables en médecine. En
1997, lors de la 29e session de la conférence générale de l’Organisation
des Nations unies pour l’éducation, la science et la culture (UNESCO),
la Déclaration universelle sur le génome humain et les droits de
l’homme a été adoptée. En plus d’interdire le clonage humain destiné
à la reproduction, cette déclaration vise aussi à protéger la dignité
du génome humain. Durant cette même conférence, la Déclaration sur
les responsabilités des générations présentes envers les générations
futures a aussi statué que le génome humain doit être protégé et sa
biodiversité sauvegardée. Ces déclarations ne demandent pas de limiter la recherche, mais plutôt de l’exercer avec prudence. L’utilisation
de sujets humains n’est pas une option à considérer, même si certaines modifications pourraient sembler avantageuses à court terme.
En effet, une telle pratique pourrait diminuer la diversité génétique
humaine et ainsi affecter l’adaptabilité de notre espèce à long terme.
758
Rodrigue_Synthese.indd 758
Figure 3. Les génomes synthétiques du futur. Les progrès
de la génomique synthétique
mèneront à des génomes
ayant des propriétés différentes de celles observées
dans la nature. Le développement de nucléotides synthétiques et l’utilisation de
codes génétiques alternatifs
permettront de créer des
cellules artificielles dont le
matériel génétique ne correspond à aucun autre organisme
retrouvé dans la nature.
La génomique synthétique : promesses,
déploiements et applications futures
Bien que les techniques de synthèse de chromosomes
permettent, en principe, la création de nouvelles
séquences génomiques inédites, les projets rapportés à ce jour demeurent très fortement inspirés des
organismes retrouvés dans la nature. Les séquences,
la composition en gènes et l’architecture des chromosomes n’ont en effet pas encore fait l’objet d’un
grand nombre de modifications qui, collectivement,
permettront de faire émerger les principes fondamentaux régissant l’ingénierie des génomes. Lorsque
ces principes de base seront mieux compris, des
efforts de conception rationnelle pourront plus facilement être entrepris, en intégrant des outils informatiques de modélisation cellulaire et de conception
assistée par ordinateur. Ces outils permettront non
seulement de prédire efficacement les phénotypes
attendus, mais aussi d’établir l’architecture détaillée des chromosomes. Ces génomes pourront être
organisés en modules regroupant des fonctions communes, qui seront combinés selon les besoins spécifiques de l’organisme désiré. Les cellules produites
pourront ainsi contenir des gènes recodés, utilisant
des codons synonymes ou n’existant pas dans la
nature (Figure 3), ou inclure diverses machineries
cellulaires spécialisées ou des combinaisons de voies
métaboliques actuellement inexistantes. Une variété
d’applications pourront alors être envisagées comme
la production de molécules d’intérêt, la bioremédiation, le traitement de maladies ou encore la création
de vaccins plus efficaces.
m/s n° 10, vol. 35, octobre 2019
30/09/2019 12:36:41
Conclusion
Les avancées technologiques spectaculaires des dernières années nous
permettent d’assister aux prémices de l’ère de la génomique synthétique.
Les défis sont encore nombreux avant d’atteindre le
(➜) Voir la Synthèse
plein potentiel de cette discipline émergente, mais de F. Labroussaa et al.,
il est probable qu’elle transformera la recherche page 761 de ce numéro
fondamentale et appliquée dans un futur proche
[66] (➜). La capacité de synthèse massive d’ADN promet également
d’accélérer les recherches en sciences biologiques en plus de constituer un
outil important en biologie de synthèse pour répondre aux multiples obstacles auxquels l’humanité devra faire face au cours de ce siècle. ‡
SUMMARY
Synthetic chromosomes: rewriting the code of life
The past decade has seen vast improvements in DNA synthesis and
assembly methods. The creation of synthetic DNA molecules is becoming easier and more affordable, such that entire chromosomes can
now be synthesized. These advances mark the beginning of synthetic
genomics, a new discipline interested in the construction of complete
genomes tailored for the study and application of biological systems.
From viral genome synthesis to the reconstruction of the yeast 16 chromosomes, we discuss the main discoveries, the regulations and ethical
considerations along with the potential of this emerging discipline for
the future. ‡
m/s n° 10, vol. 35, octobre 2019
Rodrigue_Synthese.indd 759
LIENS D’INTÉRÊT
Les auteurs déclarent n’avoir aucun lien d’intérêt concernant les
données publiées dans cet article.
1. Sekiya T, Takeya T, Brown EL, et al. Total synthesis of a tyrosine suppressor
transfer RNA gene XVI. Enzymatic joinings to form the total 207-base pairlong DNA. J Biol Chem 1979 ; 254 : 5787-801.
2. Zhang W, Zhao G, Luo Z, et al. Engineering the ribosomal DNA in a megabase
synthetic chromosome. Science 2017 ; 355 : eaaf3981.
3. Hutchison III CA, Chuang R-Y, Noskov VN, et al. Design and synthesis of a
minimal bacterial genome. Science 2016 ; 351 : 1414-26.
4. Palluk S, Arlow DH, Rond T De, et al. De novo DNA synthesis using
polymerasenucleotide conjugates. Nat Biotechnol 2018 ; 36 : 645-50.
5. Kosuri S, Church GM. Large-scale de novo DNA synthesis: Technologies and
applications. Nat Methods 2014 ; 11 : 499-507.
6. Gibson DG, Young L, Chuang R-Y, et al. Enzymatic assembly of DNA molecules
up to several hundred kilobases. Nat Methods 2009 ; 6 : 343-5.
7. Engler C, Kandzia R, Marillonnet S. A one pot, one step, precision cloning
method with high throughput capability. PLoS One 2008 ; 3 : e3647.
8. Gibson DG, Benders GA, Axelrod KC, et al. One-step assembly in yeast of
25 overlapping DNA fragments to form a complete synthetic Mycoplasma
genitalium genome. Proc Natl Acad Sci U S A 2008 ; 105 : 20404-9.
9. Kuroiwa Y, Tomizuka K, Shinohara T, et al. Manipulation of human
minichromosomes to carry greater than megabase-sized chromosome
inserts. Nat Biotechnol 2000 ; 18 : 1086-90.
10. Gibson DG, Benders GA, Andrews-Pfannkoch C, et al. Complete chemical
synthesis, assembly, and cloning of a Mycoplasma genitalium genome.
Science 2008 ; 319 : 1215-20.
11. Lartigue C, Vashee S, Algire MA, et al. Creating bacterial strains from genomes
that have been cloned and engineered in yeast. Science 2009 ; 325 : 1693-6.
12. Lartigue C, Glass JI, Alperovich N, et al. Genome transplantation in bacteria:
changing one species to another. Science 2007 ; 317 : 632-8.
13. Karas BJ, Jablanovic J, Irvine E, et al. Transferring whole genomes from
bacteria to yeast spheroplasts using entire bacterial cells to reduce DNA
shearing. Nat Protoc 2014 ; 9 : 743-50.
14. Cello J, Paul A V., Wimmer E. Chemical synthesis of poliovirus cDNA:
Generation of infectious virus in the absence of natural template. Science
2002 ; 297 : 1016-8.
15. Smith HO, Hutchison C a, Pfannkoch C, et al. Generating a synthetic
genome by whole genome assembly: phiX174 bacteriophage from synthetic
oligonucleotides. Proc Natl Acad Sci USA 2003 ; 100 : 15440-5.
16. Brown M, Lleras R, Mehedi M, et al. Genetic stability of genome-scale
deoptimized RNA virus vaccine candidates under selective pressure. Proc
Natl Acad Sci USA 2017 ; 114 : E386-95.
17. Nouen C Le, Luongo C, Yang L, et al. Attenuation of human respiratory
syncytial virus by genome-scale codon-pair deoptimization. Proc Natl Acad
Sci USA 2014 ; 111 : 13169-74.
18. Yurovsky A, Mueller S, Ward CB, et al. Large-scale recoding of an arbovirus
genome to rebalance its insect versus mammalian preference. Proc Natl
Acad Sci USA 2015 ; 112 : 4749-54.
19. Wimmer E, Paul AV. Synthetic poliovirus and other designer viruses: What
have we learned from them? Annu Rev Microbiol 2010 ; 65 : 583-609.
20. Gibson DG, Glass JI, Lartigue C, et al. Creation of a bacterial cell controlled
by a chemically synthesized genome. Science 2010 ; 329 : 52-6.
21. Fredens J, Wang K, la Torre D de, et al. Total synthesis of Escherichia coli
with a recoded genome. Nature 2019 ; 569 : 514-8.
22. Ostrov N, Landon M, Guell M, et al. Design, synthesis, and testing toward a
57-codon genome. Science 2016 ; 353 : 819-22.
23. Reuß DR, Altenbuchner J, Mäder U, et al. Large-scale reduction of the
Bacillus subtilis genome : Consequences for the transcriptional network,
resource allocation, and metabolism. Genome Res 2017 ; 27 : 289-99.
24. Reuß DR, Commichau FM, Gundlach J, et al. The blueprint of a minimal cell:
MiniBacillus. Microbiol Mol Biol Rev 2016 ; 80 : 955-87.
25. Ikeda H, Satoshi KS. Genome mining of the Streptomyces avermitilis genome
and development of genome-minimized hosts for heterologous expression
of biosynthetic gene clusters. J Ind Microbiol Biotechnol 2014 ; 41 : 233-50.
26. Komatsu M, Uchiyama T, Omura S, et al. Genome-minimized Streptomyces
host for the heterologous expression of secondary metabolism. Proc Natl
Acad Sci USA 2010 ; 107 : 2646-51.
REVUES
RÉFÉRENCES
SYNTHÈSE
Un autre axe en développement vise à créer des organismes utilisant
des nucléotides non-canoniques dans leur génome (Figure 3). Ceci
permettrait non seulement de distinguer les (➜) Voir la Chronique
organismes synthétiques des organismes natu- génomique de
rels, mais également de leur conférer des carac- B. Jordan, m/s n° 2,
février 2018, page 179
téristiques intéressantes [50] (➜).
Un avantage de cet ADN artificiel est qu’il impose une dépendance à
des nucléotides n’existant pas naturellement, limitant ainsi la dissémination dans l’environnement des organismes génétiquement modifiés. L’utilisation de nouvelles bases azotées
(➜) Voir la Chropour la synthèse de l’ADN [53] (➜) implique nique génomique de
l’écriture de nouveaux codes génétiques, ce B. Jordan, m/s n° 5,
qui permettra d’immuniser l’organisme contre mai 2019, page 483
les virus utilisant des codes naturels. Cette
approche permettra également de limiter l’expression de gènes acquis
lors de potentiels évènements d’échange de matériel génétique par
transfert horizontal entre organismes naturels et synthétiques. L’incompatibilité entre les codes naturels et synthétiques serait à l’origine
d’erreurs de traduction des protéines, en causant des interruptions
précoces ou en menant à l’incorporation d’acides aminés inappropriés. Des acides aminés non-naturels pourraient être incorporés par
certains de ces codons non-utilisés ou synthétiques, offrant ainsi
des capacités structurales ou enzymatiques améliorées pour diverses
protéines. Une souche de la bactérie E. coli possédant des nucléotides
non-naturels a déjà été produite [51] et des souches utilisant un code
génétique réduit sont disponibles [21, 22].
759
24/09/2019 11:17:05
RÉFÉRENCES
27. Leprince A, Lorenzo V De, Völler P, et al. Random and cyclical deletion of large DNA segments in
the genome of Pseudomonas putida. Environ Microbiol 2012 ; 14 : 1444-53.
28. Gibson DG, Smith HO, Hutchison CA, et al. Chemical synthesis of the mouse mitochondrial genome.
Nat Methods 2010 ; 7 : 901-3.
29. Lightowlers RN. Mitochondrial transformation: time for concerted action. EMBO Rep 2011 ; 12 :
480-1.
30. Richardson SM, Mitchell LA, Stracquadanio G, et al. Design of a synthetic yeast genome. Science
2017 ; 355 : 1040-4.
31. Dymond J, Boeke J. The saccharomyces cerevisiae SCRaMbLE system and genome minimization.
Bioeng Bugs 2012 ; 3 : 168-71.
32. Dymond JS, Richardson SM, Coombes CE, et al. Synthetic chromosome arms function in yeast and
generate phenotypic diversity by design. Nature 2011 ; 477 : 471-6.
33. Annaluru N, Muller H, Mitchell LA, et al. Total synthesis of a functional designer eukaryotic
chromosome. Science 2014 ; 344 : 55-8.
34. Shen Y, Wang Y, Chen T, et al. Deep functional analysis of synII, a 770-kilobase synthetic yeast
chromosome. Science 2017 ; 355 : eaaf4791.
35. Xie Z-X, Li B-Z, Mitchell LA, et al. “Perfect” designer chromosome V and behavior of a ring
derivative. Science 2017 ; 355 : eaaf4704.
36. Mitchell LA, Wang A, Stracquadanio G, et al. Synthesis, debugging, and effects of synthetic
chromosome consolidation: synVI and beyond. Science 2017 ; 355 : eaaf4831.
37. Wu Y, Li BZ, Zhao M, et al. Bug mapping and fitness testing of chemically synthesized chromosome
X. Science 2017 ; 355 : eaaf4706.
38. Yu W, Han F, Gao Z, et al. Construction and behavior of engineered minichromosomes in maize.
Proc Natl Acad Sci USA 2007 ; 104 : 8924-9.
39. Nelson AD, Lamb JC, Kobrossly PS, et al. Parameters affecting telomere-mediated chromosomal
truncation in Arabidopsis. Plant Cell 2011 ; 23 : 2263-72.
40. Teo CH, Ma L, Kapusi E, et al. Induction of telomere-mediated chromosomal truncation and
stability of truncated chromosomes in Arabidopsis thaliana. Plant J 2011 ; 68 : 28-39.
41. Xu C, Cheng Z, Yu W. Construction of rice mini-chromosomes by telomere-mediated chromosomal
truncation. Plant J 2012 ; 70 : 1070-9.
42. Kapusi E, Ma L, Teo CH, et al. Telomere-mediated truncation of barley chromosomes. Chromosoma
2012 ; 121 : 181-90.
43. Boehm CR, Bock R. Recent advances and current challenges in synthetic biology of the plastid
genetic system and metabolism. Plant Physiol 2019 ; 179 : 794-802.
44. Vafaee Y, Staniek A, Mancheno-Solano M, et al. A modular cloning toolbox for the generation of
chloroplast transformation vectors. PLoS One 2014 ; 10 : e110222.
45. Jordan B. HGP-write : après la lecture, l’écriture ? Med/Sci (Paris) 2016 ; 32 : 898-901.
46. Boeke JD, Church GM, Hessel A, et al. GP-write : a grand challenge project to build and test
genomes in living cells. http://engineeringbiologycenter.org/wp-content/uploads/2018/08/2018_
MeetingSummary.pdf.
47. Jordan B. De HGP-write aux super-cellules. Med/Sci (Paris) 2018 ; 34 : 749-51.
48. Tumpey TM, Basler CF, Aguilar P V, et al. Characterization of the reconstructed 1918 Spanish
influenza pandemic virus. Science 2005 ; 310 : 77-80.
49. Noyce RS, Lederman S, Evans DH. Construction of an infectious horsepox virus vaccine from
chemically synthesized DNA fragments. PLoS One 2018 ; 13 : e0188453.
50. Jordan B. Bases alternatives et organismes synthétiques. Med/Sci (Paris)
2018 ; 34 : 179-82.
51. Zhang Y, Lamb BM, Feldman AW, et al. A semisynthetic organism engineered
for the stable expansion of the genetic alphabet. Proc Natl Acad Sci USA
2017 ; 114 : 1317-22.
52. Tournier JN. L’éradication des maladies infectieuses virales mise en danger
par les avancées de la biologie synthétique. Med Sci (Paris) 2019 ; 35 : 1816.
53. Jordan B. Extension du domaine du codage : l’ADN hachimoji. Med Sci (Paris)
2019 ; 35 : 483-5.
54. Stemmer WPC, Crameri A, Ha KD, et al. Single-step assembly of a gene and
entire plasmid from large numbers of oligodeoxyribonucleotides. Gene
1995 ; 164 : 49-53.55. Lee YN, Bieniasz PD. Reconstitution of an infectious
human endogenous retrovirus. PLOS Pathog 2007 ; 3 : e10.
56. Becker MM, Graham RL, Donaldson EF, et al. Synthetic recombinant bat
SARS-like coronavirus is infectious in cultured cells and in mice. Proc Natl
Acad Sci USA 2008 ; 105 : 19944-9.
57. Nauwelaers D, Van Houtte M, Winters B, et al. A synthetic HIV-1 subtype C
bakbone generates comparable PR and RT resistance profiles to a subtype B
backbone in a recombinant virus assay. PLOS One 2011 ; 6 : e19643.
58. Yang R, Han Y, Ye Y, et al. Chemical synthesis of bateriophage G4. PloS One
2011 ; 6 : e27062.
59. Munshaw S, Bailey JR, Liu L, et al. Computational reconstruction of Bole1a, a
representative synthetic hepatitis C virus subtype 1a genome. J Virol 2012 ;
86 : 5915-21.
60. Liu Y, Han Y, Huang W, et al. Whole-genome synthesis and characterization
of viable S13-like bacteriophages. PLoS One 2012 ; 7 : e41124.
61. Scholte FEM, Tas A, Martina BEE, et al. Characterization of synthetic
Chikungunya virus based on the consensus sequence of recent E1-226V
isolates. PLOS One 2013 ; 8 : e71047.
62. Cooper B. Proof by synthesis of Tobacco mosaic virus. Genome Res 2014 ; 15 :
R67.
63. Lovato A, Faoro F, Gambino G, et al. Construction of a synthetic infectious
cDNA clone of Grapevine Algerian latent virus (GALV-Nf) and its biological
activity in Nicotiana benthamiana and grapevine plants. Virol J 2014 ;
11 : 186.
64. Vu HLX, Ma F, Laegreid WW, et al. A synthetic porcine reproductive
and respiratory syndrome virus strain confers unprecedented levels of
heterologous protection. J Virol 2015 ; 89 : 12070-83.
65. Shang Y, Wang M, Xiao G, et al. Construction and rescue of a functional
synthetic baculovirus. ACS Synth Biol 2017 ; 6 : 1393-402.
66. Labroussaa F, Baby V, Rodrigue S, Lartigue C. La transplantation des
génomes : redonner vie à des génomes bactériens naturels ou synthétiques.
Med Sci (Paris) 2019 ; 35 : 761-70.
TIRÉS À PART
S. Rodrigue
Étudiants en master, un soutien à la recherche
du Comité pour l’histoire de l’Inserm
2019-2020
Pour l’année universitaire 2019-2020, le Comité pour l’histoire de l’Inserm propose un soutien financier aux
étudiants de master qui s’engageront dans un mémoire de recherche concernant l’histoire de l’institution ou,
plus largement, l’histoire de la recherche biomédicale et des questions de santé.
Les candidats, historiens ou étudiants relevant d’une autre discipline mais intégrant une approche historienne,
peuvent élaborer, avec l’aide d’un directeur de recherche, leur propre sujet. Un livret de présentation, avec des
propositions de sujet, est disponible.
La date limite de réception des dossiers de candidature est le 18 octobre 2019
Pour toute information, consultez le site Inserm (https://www.inserm.fr) et contactez le secrétariat scientifique du
Comité : [email protected]»
Pour télécharger le livret, suivez ce lien : https://www.inserm.fr/actualites-et-evenements/actualites/soutien-recherche-surhistoire-recherche-biomedicale-appel-2019-2020
760
Rodrigue_Synthese.indd 760
m/s n° 10, vol. 35, octobre 2019
24/09/2019 11:17:05.
| 45,069
|
tel-04517805-sygal_fusion_27940-chadoutaud-karen_65fdb32a78987.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
La protection internationale des droits fondamentaux des enfants victimes du recrutement forcé dans le conflit armé en Colombie. Droit. Normandie Université, 2023. Français. ⟨NNT : 2023NORMC042⟩. ⟨tel-04517805⟩
|
None
|
French
|
Spoken
| 7,230
| 11,699
|
La protection internationale des droits fondamentaux
des enfants victimes du recrutement forcé dans le conflit
armé en Colombie
Karen Chadoutaud
To cite this version:
Karen Chadoutaud. La protection internationale des droits fondamentaux des enfants victimes du
recrutement forcé dans le conflit armé en Colombie. Droit. Normandie Université, 2023. Français.
�NNT : 2023NORMC042�. �tel-04517805�
HAL Id: tel-04517805
https://theses.hal.science/tel-04517805
Submitted on 22 Mar 2024
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
THÈSE
Pour obtenir le diplôme de doctorat
Spécialité SCIENCES JURIDIQUES
Préparée au sein de l'Université de Caen Normandie
La prοtectiοn internatiοnale des drοits fοndamentaux des
enfants victimes du recrutement fοrcé dans le cοnflit armé en
Cοlοmbie
Présentée et soutenue par
KAREN CHADOUTAUD, NÉ·E SALAZAR DUSSAN
Thèse soutenue le 15/12/2023
devant le jury composé de :
MME MARIE ROTA
Maître de conférences HDR - UNIVERSITE DE LORRAINE
Rapporteur du jury
M. FELIPE CALDERONVALENCIA
Professeur - Université de Medellin
Membre du jury
M. SERGE SLAMA
Professeur des universités - UNIVERSITE GRENOBLE ALPES
Membre du jury
MME ANNE MILLET-DEVALLE
Professeur des universités - UNIVERSITE NICE SOPHIA
ANTIPOLIS
Président du jury
M. JEAN-MANUEL LARRALDE
Professeur des universités - Université de Caen Normandie
Directeur de thèse
Thèse dirigée par JEAN-MANUEL LARRALDE (Institut caennais de recherche juridique)
L’Université de Caen Normandie n’entend donner aucune approbation ni improbation aux
opinions émises dans cette thèse. Ces opinions doivent être considérées comme propres à
leur auteur.
1
Cette thèse n’aurait pu voir le jour sans l’aide et la patiente durant tous ces années de
Monsieur le professeur Jean-Manuel Larralde qui m’a fait l’honneur d’en accepter la
direction et croire dans mon projet de recherche ; ses conseils avisés et assistance intellectuelle
m’ont permis de lui donner corps. Votre soutien sans faille, vos corrections et bienveillance
m’ont permis l’achever.
Je tiens aussi à remercier les Professeurs Madame Anne Millet-Devalle, Monsieur
Serge Slama, Monsieur Felipe Calderon-Valencia et la Maître de conférence Madame Marie
Rota d’avoir bien voulu faire partie du jury de soutenance. Je vous remercie pour le temps
accordé.
Ce travail aurait également connu un destin différent s’il avait été mené sans le soutien
de certaines personnes de l’équipe de l’École doctorale Droit-Normandie et l’Institut caennais
de recherche juridique. J’ai une pensée particulière pour Madame Françoise Le Bourhis,
Madame Pénélope Cochennec et Madame la professeure Élodie Saillant pour leur gentillesse,
leurs paroles rassurantes et leurs encouragements. Une autre s’adresse à Dídima, Constanza,
Leni, Léa et Margaux, courageuses âmes qui ont, sans hésitation aucune, donné de leur temps
pour m’aider ou simplement m’écouter.
Ce doctorat trouve son dernier élan dans deux personnes très proches, une qui est
retourné dans ma vie après des longues années d’absence mais qui est là pour me soutenir
plus que jamais avec amour et tendresse et ma mère, gardienne infatigable depuis toujours.
Leurs encouragements en permanence et leur confiance m’ont portée et insufflé la force
nécessaire pour finir.
Ces années de thèse ont été accompagnées de joies et de larmes, mais aussi d'hommes
généraux qui ont marqué ma vie et m'ont appris la force d'être une femme dans cette société.
Ces hommes se reconnaitront, alors, merci beaucoup.
Ma reconnaissance va également à tous mes amis et proches qui n’ont cessé de me
soutenir et de m’encourager durant tous ces années de thèse, subissant par moments les
conséquences du stress et de la fatigue qui ont pu m’envahir.
Mon travail pour la paix en Colombie avec la magistrate Reinere Jaramillo et mon
engagement en faveur des droits des victimes, me font penser aujourd'hui de manière
particulière, à tous les enfants qui ont souffert le conflit armé au plus profond de leurs âmes.
C'est pour ces enfants qu'il vaut la peine de continuer à se battre et à écrire.
Merci.
À Bogotá, le 15 novembre 2023.
2
Pour Alex et Amélie,
parce qu'il suffit que je vous regarde
pour avoir confiance en moi,
en la vie et surtout en vous.
À l’amour de ma vie,
en désirant que la "luna"
restera pour toujours.
La Colombie est le seul pays expérimentant dans la région un conflit armé
depuis plus de soixante ans. Les historiens situent son origine à différentes époques1, mais il
est évident que toute l’histoire du pays est marquée par la violence ; depuis les conquêtes
coloniales, à la guerre de milles jours, en passant par la lutte pour l’indépendance de la
couronne espagnole, entre autres.
2.
À première vue, l’époque connue sous le nom de la « Violence » a démontré
une rupture sociale et politique certaine du pays, s’étendant de 1945 à 1964, et laissant un
nombre de morts très élevé. De plus, les révoltes populaires qui ont commencé le 9 avril 1948
ont marqué la confrontation de plus en plus ouverte entre les classes dominantes et plus
modestes, traçant le chemin de la fondation des « Fuerzas Armadas Revolucionarias de Colombia »
(ci-après FARC) en 19642. La direction idéologique se divise alors entre des deux partis
politiques traditionnels : libéral et conservateur, mais l’engagement militaire trouve sa source
dans le peuple et plus particulièrement chez les paysans. Le « Plan Laso » 3 dirigé par des
militaires ayant initié des combats contre des groupes rebelles connus par la suite comme
FARC, a abouti à considérer le 27 mai 1964 comme la date de fondation officielle de ce groupe
armé car symbolise la réponse aux attaques de l’État ayant comme base l’étude secret élaboré
par le Département d’état des États-Unis et connu comme « Communist Involvement in the
Colombian Riots of April 9, 1948 »4. Finalement, « pour le gouvernement d'Álvaro Uribe Vélez (20022010), il n'y avait pas de conflit armé en Colombie, mais une menace terroriste qui ne pouvait pas
remettre en cause la légitimité de l'État ou de son gouvernement »5.
Voir : Pasado y presente de la violencia en Colombia, F. Sánchez et R. Peñaranda (dir.), Medellín, La Carreta Histórica,
2019.
2 Depuis la VIIème conférence des FARC en 1993, ils ont ajouté « armée du peuple –EP » pour devenir FARC-EP et le
groupe armé est parvenu à s’emparer de plusieurs bases militaires et se rapprocher de la ville de Bogotá. La
division hiérarchie des FARC-EP est à partir de l'échelon le plus élevé à l'échelon le plus bas : 1. Secrétariat ; 2. étatmajor ; 3. bloc ; 4. fronts ; 5. colonnes ; 6. compagnies ; 7. guérillas ; et 8. escadrons.
3 Il s’agissait d’un plan pour éliminer les groupes armés dans soi-disant colonies communistes et s'inspirait à la fois
des directives américaines en matière de contre-insurrection et des leçons que les officiers colombiens avaient
apprises en Corée ainsi que de leur propre expérience.
4 D. Villamizar, Las guerrillas en Colombia. Una historia desde los orígenes hasta los confines, 1e éd., Bogotá, Debate,
2017, p. 139 et 265.
5 El largo camino hacia la paz. Procesos e iniciativas de paz en Colombia y en Ecuador, F. Benavides & E. Vinyamata (dir.),
1
8
3.
En outre, l’ex-président Uribe s'est engagé à intégrer les structures
paramilitaires, « Autodefensas Unidas de Colombia » (ci-après AUC) dans la vie légale du pays.
Par conséquent, sous son gouvernement a été lancé un processus de justice transitionnelle
nommé « Loi de Justice et Paix » avec les groupes des paramilitaires, dont les objectifs étaient
de légaliser et de légitimer le paramilitarisme par un processus de démobilisation et de
réintégration sociale de ses membres et engager la promesse de garantie de non impunité
devant les tribunaux.
4.
Le phénomène paramilitaire en Colombie a été identifié à partir de ses
structures présentes dans une grande partie du territoire national et a été également classé en
blocs ou groupes, comme indiqué ci-dessous :
Structures paramilitaires identifiées dans la contribution à l’exercice de vérité6
Barcelona, UOC, 2011, p. 15.
6 Centro Nacional de Memoria Histórica, Análisis cuantitativo del paramilitarismo en Colombia – Hallazos del Mecanismo
no judicial de contribución a la verdad, Bogotá, CNMH, octobre de 2019, p. 48.
9
5.
Le paramilitarisme a changé de forme pour se présenter comme des bandes
criminelles (ci-après BACRIM), successeurs des paramilitaires ou du néo-paramilitarisme.
Certains politiciens ont fait des alliances avec des paramilitaires pour représenter les intérêts
de la « parapolitique ». En outre, il ne faut pas oublier que les réseaux de pouvoir politique et
économique que ces groupes avaient dans les régions n'ont pas été démantelés, ce qui a permis
l'émergence des BACRIM.
6.
À propos de la participation des enfants dans le conflit armé colombien, il
faut préciser que le conflit s'est aggravé après la fondation des FARC-EP et l'implication
d'autres groupes armés tels que « l'Ejército de Liberación Nacional » (ci-après ELN) et les AUC,
notamment. Dans les années 70 « survient l’image de l’enfant soldat comme quelque chose d’insolite,
comme une nouvelle réalité qui était difficile à croire. Les enfants et la guerre étaient déjà deux réalités
qui n'étaient pas concevables ensemble. Dès lors, de nombreuses photographies, communiqués de presse,
articles et études de recherche ont été publiés sur le sujet » 7.
7.
Néanmoins, les conflits armés des années 90, notamment dans la région de
l’Afrique subsaharienne –Liberia, Sierra Leone, Rwanda, Burundi, Somalie, entre autres8,
ayant été marqués par l’utilisation massive des enfants au combat par les forces armées, ont
abouti à l’évocation d’une cagoterie de combattants : « les enfants soldats ». Le monde voyait
avec horreur des images d’enfants avec des armes, cette situation a été l’origine d’une prise
de conscience entraînant une indignation de la communauté internationale qui s’est alors
empressée de réagir.
8.
De ce fait, en 1996, l’Assemblée générale des Nations Unies reçut un rapport
au sujet de « l’impact des conflits armés sur les enfants », rédigé par Graça Machel, experte
nommée par le Secrétaire général de l’époque, Kofi Annan. Ce rapport décrivait les effets
nuisibles de la guerre sur les enfants et comprenait des recommandations concrètes visant à
les protéger lors des conflits armés. C’est pourquoi, a été créé le mandat de la Représentante
spéciale du Secrétaire général pour le sort des enfants en temps de conflit armé à travers la
résolution A/RES/51/77.
9.
Évoquer le recrutement et l’utilisation d’enfants dans un conflit armé, comme
En busca de los niños combatientes en la época de La Violencia en Colombia (Ponencia presentada en: La Infancia en la
Historia de las Américas. Congreso de Americanistas, Viena, julio 2012), p. 1-4.
8 M. Gazibo, Introduction á la Politique Africaine, 2e éd., Montréal, Presses de l’Université de Montréal, 2010, p. 117137.
7
10
celui se déroulant en Colombie depuis plus de soixante ans, oblige à traiter le concept d’enfant
soldat. Celui-ci est défini comme « […] toute personne âgée de moins de 18 ans qui est ou a été
recrutée ou employée par une force ou un groupe armé, quelle que soit la fonction qu’elle exerce. Il peut
s’agir, notamment mais pas exclusivement, d’enfants, filles ou garçons, utilisés comme combattants,
cuisiniers, porteurs, messagers, espions, ou à des fins sexuelles. Le terme ne désigne pas seulement un
enfant qui participe ou a participé directement à des hostilités »9. Cette définition invite à se
demander pourquoi les enfants continuent à être recrutés par des forces ou groupes armés,
bien qu’il y ait une protection prévue par le droit international dans des instruments comme
la Convention relative aux droits de l’enfant (ci-après CDE) qui est le traité international
Ayant la plus grande vocation à l'universalité et que l’on peut même affirmer comme étant la
seule convention ratifiée de manière universelle10.
10.
Par ailleurs, les auteurs de la CDE évoquent également ce problème dans la
disposition 38 de ladite convention11, mais le recrutement des enfants ne fait pas l’objet d’une
interdiction. La CDE prévoit la possibilité de recruter des enfants dans les conflits armés, à la
seule condition qu’ils soient âgés de plus de 15 ans. Il s'agit ainsi d'une norme laissant l'enfant
en proie aux conflits armés.
11.
De nombreux enfants sont séparés de leur famille, enlevés, tués, mutilés ou
victimes de sévices sexuels ou d’autres formes d’exploitation. Aussi, la violation de leurs
droits dans les conflits armés n’est pas seulement due à leur participation active aux hostilités,
mais se manifeste également par de multiples situations dans lesquelles les mineurs sont mis
en danger et même soumis à l’endoctrinement, à l’instrumentalisation de leur corps et à
d’autres types de violence et de crimes.
12.
Cependant et paradoxalement, la protection des droits des enfants victimes
de la guerre continue à être une problématique d’actualité, à cause de la transformation des
conflits armés. Elle pose même la question de l’efficacité d’un cadre normatif international
solide, capable d’assurer la protection de l’enfant dans les hostilités. Sur ce point, il apparaît
que le droit international (ci-après DI) prévoit un ensemble de mécanismes juridiques
Principes de Paris, principes directeurs relatifs aux enfants associés aux forces armées ou aux groupes armés,
février 2007.
10 Aujourd’hui, il y a 196 États parties et un signataire. Status of Ratification Interactive Dashboard, Convention on the
Rights of the Child. Last Updated: 21 Feb 2023 (disponible sur : https://indicators.ohchr.org/).
11 Convention relative aux droits de l'enfant, adoptée le 20 novembre 1989, Article 38 (disponible sur :
https://www.ohchr.org/fr/instruments-mechanisms/instruments/convention-rights-child)
9
11
applicables à l’enfant, qu’il soit victime directe ou indirecte des conflits, ou qu’il participe
directement aux hostilités.
13.
À cet égard, dans le cadre du droit international humanitaire (ci-après DIH),
les enfants font l’objet d’une protection spéciale dans les quatre Conventions de Genève de
1949 et les deux Protocoles additionnels, notamment le Protocole additionnel aux
Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés
non internationaux de 1977 –Protocole II12, qui dans le cas de la Colombie, revêt une grande
importance, sans aucun doute. Néanmoins, c’est l’Organisation International du Travail (ciaprès OIT) qui est le premier organisme à réagir au travers de la Convention 182 sur les pires
formes de travail des enfants, en définissant le recrutement d’enfants dans les conflits armés
comme l’une des pires formes d’exploitation13. Par la suite, le Conseil de Sécurité des Nations
Unies adopte plusieurs résolutions dénonçant l’emploi d’enfants dans les conflits armés et
caractérisant ces actes de violations graves des droits de l’Homme. Principalement à travers
le groupe de travail du Conseil de sécurité sur les enfants et les conflits armés.
14.
Ainsi, on retrouve la notion de « combattant », que selon l'évolution du DIH
et l'extension du principe de distinction entre combattants et population civile, développe la
figure du combattant légitime et celle du combattant illégal ou non privilégié, ce dernier étant
la classification des enfants enrôlés :
Le combattant est la personne qui participe directement à l'action hostile du combat, qui
a le droit d'attaquer l'adversaire, c'est-à-dire le droit de se battre et de bénéficier d'une
immunité de poursuite (« immunité de combat ») pour tuer conformément à la loi. Il
possède également un ensemble de droits et d'obligations qui constituent le « statut de
combattant » et, s'il est capturé, il bénéficie légitimement du « statut de prisonnier de
guerre » [...] En termes de traitement, tout enfant combattant doit bénéficier d'un
traitement privilégié en raison de son âge. Les règles du droit international humanitaire
prévoient cette protection spéciale en vertu des articles 16 et 49, paragraphe 1, de la
Dans un conflit armé non international, l'enfant a également droit aux garanties fondamentales accordées aux
personnes qui ne participent pas directement aux hostilités (Conventions de Genève, article 3 commun et PA II,
article 4). Il bénéficie aussi du principe selon lequel « ni la population civile ni les personnes civiles ne devront être l'objet
d'attaques » (Protocole II, article 13).
13 C182 - Convention (n° 182) sur les pires formes de travail des enfants, 1999. Article 3 (a) (disponible sur :
https://www.ilo.org/dyn/normlex/fr/f?p=NORMLEXPUB:12100:0::NO::P12100_ILO_CODE:C182).
12
12
troisième convention et de l'article 77, paragraphes 4 et 5, du protocole I. En ce qui
concerne la responsabilité, le statut de prisonnier de guerre n'interdit pas les poursuites
pénales pour les violations graves du droit international humanitaire qui peuvent avoir
été commises par des enfants. Toutefois, leur responsabilité doit être évaluée en fonction
de leur âge et, en règle générale, des mesures éducatives, et non des sanctions, seront
imposées, et même si des sanctions pénales sont imposées, en vertu de l'article 68,
paragraphe 4, de la quatrième convention et de l'article 77, paragraphe 5, du protocole I,
la peine de mort ne peut être prononcée à l'encontre de l'enfant14.
15.
L’article 4 du Protocole II, cité précédemment, prévoit des soins spéciaux liés
à l’éducation, l’environnement culturel, l’identification et le regroupement familial destinés
aux enfants, entre autres. Or, la norme mentionnée continue dans le même élan que l’article
38 de la CDE affirmant que : « […] c) les enfants de moins de quinze ans ne devront pas être recrutés
dans les forces ou groupes armés, ni autorisés à prendre part aux hostilités […] ».
16.
Cependant, la possibilité de recruter des enfants à partir de 15 ans se retrouve
en contradiction avec l’article 1 de la CDE annonçant que : « […] un enfant s'entend de tout être
humain âgé de moins de dix-huit ans […] ». Pour sa part, l'article 19 de la Convention américaine
des droits de l’Homme (ci-après CADH) ne définit pas ce qu'on entend par « enfant ». Cette
convention ne fait qu’une simple allusion au droit de l’enfant en signalant que : « tout enfant a
droit aux mesures de protection qu'exige sa condition de mineur, de la part de sa famille, de la société
et de l'État ».
17.
La CADH reconnaît l’importance du principe de la primauté de l’intérêt
supérieur de l’enfant, qui implique que le plein exercice des droits de l’enfant doit être
considéré comme un critère directeur pour l’élaboration et l’application des normes à tous les
niveaux.
18.
En outre, pour atténuer à cette lacune et rectifier cette disposition, les Nations
Unies décident d’adopter un Protocole facultatif à la Convention, concernant l’implication des
enfants dans les conflits armés dont l’article 3, 1) signale que : « Les États Parties relèvent en
années l’âge minimum de l’engagement volontaire dans leurs forces armées nationales par rapport à
P. Reyes Parra, «Los niños y las niñas como víctimas en los conflictos armados: participación en las hostilidades», Revista
Latinoamericana de Derechos Humanos, Volumen 24, No. 2, 2013, p. 46-48. Traduit en français.
14
13
celui fixé au paragraphe 3 de l’article 38 de la CDE, en tenant compte des principes inscrits dans ledit
article et en reconnaissant qu’en vertu de la Convention les personnes âgées de moins de 18 ans ont
droit à une protection spéciale ». Le Protocole est adopté le 25 mai 2000 et entre en vigueur le 12
février 2002.
19.
Toutes ces normes gravitent autour des deux grands principes contenus dans
la CDE. D’une part, le principe de l’intérêt supérieur de l’enfant qui peut se définir dans les termes
de C, Bácares Jara comme « un devoir de toute autorité de l’État, de la famille et de l’éducation pour
que leurs politiques, leurs actions privées, publics et judiciaires sont inclues pour satisfaire et privilégier
tous les droits des enfants jusqu’au possible et dans le cas de ne pas pouvoir le faire, expliquer comment
la restriction de certains droits pourrait affecter dans le court et long terme le développement des enfants
et de la personne adulte » 15. D’autre part, le principe lié au droit de vivre, survivre et se développer
qui fait que l’État doive assurer le droit à la vie des enfants et renforcer la garantie de leurs
droits fondamentaux.
20.
Dans ce sens, on parle des droits de disposition qui donnent une base pour
couvrir les besoins basiques de l’enfant et des droits de protection qui sont conçus dans le but
de protéger les enfants de situations de violence et de quelques infractions comme le
recrutement. Ces droits sont appelés à défendre la sécurité physique et mentale des enfants
dans leurs relations avec les adultes.
21.
L’intérêt supérieur de l’enfant repose sur une série de postulats qui traduisent
la préoccupation croissante de la communauté internationale à l’égard des situations touchant
les enfants. Le développement de divers instruments juridiques visant à la protection des
enfants est une tentative de reconnaissance de la vulnérabilité des mineurs. Cependant, la
garantie des postulats reflétés dans le système normatif international, par exemple pour
empêcher le recrutement, est encore timide. La persistance des violations envers les enfants
fait prendre conscience des insuffisances normatives et impose une redéfinition dans les
mécanismes de protection mis en place.
22.
La criminalisation des violations commises lors des conflits armés, définit une
nouvelle approche de la responsabilité de la communauté internationale en la matière. On
pense notamment à l’arrêt République Démocratique du Congo c. Ouganda de la Cour
C. Bácares Jara, Una aproximación hermenéutica a la convención sobre los derechos del niño, 1e éd., Perú, IFEJANT,
2012, p. 113.
15
14
International de Justice (ci-après CIJ) où a été établit la responsabilité de l'État : « […] par le
comportement de ses forces armées, qui ont commis des meurtres et des actes de torture et autres formes
de traitements inhumains à l'encontre de la population civile congolaise [...], ont entraîné des enfantssoldats, ont incité au conflit ethnique […] »16, l'Ouganda a « violé les obligations lui incombant en
vertu du droit international relatif aux droits de l’Homme et du droit international humanitaire »17.
23.
Après l’arrêt de la CIJ, la Cour pénale internationale (ci-après CPI) a
commencé à traiter quelques cas de crimes de guerre et de recrutement d'enfants soldats
découlant du conflit armé et en mars 2012 rend sa première décision, déclarant Thomas
Lubanga Dyilo, « coupable des crimes de conscription et d’enrôlement d’enfants de moins de 15 ans
dans la FPLC et du fait de les avoir fait participer activement à des hostilités, au sens des articles 8-2e-vii et 25-3-adu Statut, de début septembre 2002 au 13août 2003 »18.
24.
Le recrutement d’enfants est un crime de guerre, défini par le Statut de Rome
comme un comportement interdit dans le cadre de conflits armés internes ou internationaux,
afin d’assurer la bonne application du DIH dans le contexte des hostilités et sous la protection
du principe de distinction, ainsi que du principe pro infans.
25.
Par ailleurs, le crime de guerre de recrutement n’est rien d’autre qu’une
intention normative criminelle, du point de vue de la garantie des droits de l’enfant, qui
manifeste la prévalence de l’intérêt supérieur de l’enfant et le renforcement de sa protection
dans le contexte des conflits armés. Malgré le fait, que les juridictions pénales internationales
et nationales (dans le cas de la Colombie) établissent des sanctions pour ces comportements
commis, la solution décisive pour éradiquer le recrutement d’enfants dépend de la
restructuration politique, institutionnelle et sociale assumée par les États en vertu des
obligations qui leur incombent grâce au principe du pacta sunt servanda, ainsi que le plus grand
sens de l’attention et de la dignité que les enfants méritent.
26.
L’impact de la guerre sur les enfants est largement documenté dans les
conflits armés internationaux et non internationaux. Dans le cas de la Colombie, le
recrutement d’enfants est commis par divers acteurs armés, y compris des groupes
paramilitaires, des groupes armés organisés, des dissidents des FARC-EP, des BACRIM, entre
CIJ, Activités armées sur le territoire du Congo. République Démocratique du Congo c. Ouganda, 19 décembre 2005,
paragraphe 345.
17 Ibid.
18 CPI, Le Procureur c. Thomas Lubanga Dyilo, Affaire Nº : ICC-01/04-01/06, Jugement, Chambre de Première Instance
I, 14 mars 2012, paragraphe 1358.
16
15
autres.
27.
Bien que le recrutement d’enfants soit un grave problème dans le monde
entier, s’agissant d’une pratique répandue dans les pays en conflit armé, le cas colombien est
particulièrement pertinent en raison de l’histoire de la violence depuis des longues années,
raison pour laquelle la guerre a favorisé l’intensification de l’enrôlement et l’utilisation des
enfants dans le cadre des stratégies de taux de remplacement effectif des combattants.
28.
Ainsi, le recrutement d’enfants en Colombie par des groupes illégaux est dû
à de multiples causes, telles que : la détriment de la société ; le contrôle des territoires, en
particulier des zones rurales, par des groupes paramilitaires ou des guérillas ; les menaces
envers la vie des familles et des enfants qui forcent les mineurs à rejoindre l’autre camp
pouvant leur fournir une protection ; l’absence d’une famille ou d’une figure paternelle pour
leur donner de l’amour, de la compréhension, du respect ; la maltraitance des enfants, la
négligence, la pauvreté ; la carence d’éducation et, par conséquent, le manque d’opportunités ;
les déplacements forcés ; l’insécurité alimentaire et le contexte de «fongibilité» des enfants en
temps de guerre, c’est-à-dire, le fait qu’ils soient interchangeables, remplaçables et qu’ils
impliquent même des coûts moindres pour les groupes armés en raison de la facilité de leur
formation et de leur utilisation dans des travaux à haut risque.
29.
Le conflit armé en Colombie a été une guerre irrégulière, avec un conflit qui
s’est intensifié et étendu à plusieurs régions du pays, dans lequel les acteurs armés ont profité
des enfants, n’ont eu de cesse de violer leurs droits des enfants à travers le recrutement forcé,
ce qui est encore le cas aujourd’hui. Il s’agit d’une pratique permanente des acteurs armés dans
le contexte de l’intensification et de l’expansion de leurs plans de guerre, qui reproduit encore
et encore des schémas de violence à l’égard des enfants.
30.
Malgré les différents appels à l’attention de la communauté internationale et
des organisations gouvernementales ou de défense des droits de l’Homme par le biais
d’associations civiles, la radiographie présentée en termes d’impact sur les enfants est
inquiétante pour un pays plongé dans un conflit armé depuis de longues années et qui n’a pas
été en mesure d’éradiquer la pratique du recrutement, de la conscription ou de l’enrôlement
des enfants.
31.
Dans ce contexte, les enfants en Colombie sont dans une situation de
vulnérabilité constante, en particulier les enfants vivant dans des conditions de vie très
16
précaires, ceux habitant dans les zones rurales, ceux appartenant à des communautés
indigènes et ceux qui font partie des peuples d’ascendance africaine sont ceux qui ont le plus
de risque d’être recrutés. Ils sont également attaqués par une série d’autres crimes qui
coexistent au sein des rangs armés, ou en raison d’actions violentes contre la population civile,
telles que : la disparition forcée, le déplacement forcé, la torture, la violence sexuelle, les
enlèvements et le travail forcé.
32.
Il est souligné que le recrutement est la double victimisation de la pauvreté et
de la vulnérabilité que revêt la pertinence ethnique et raciale, car le conflit armé transgresse
avec une plus grande voracité les droits des communautés autochtones et des communautés
afro-descendantes, tant dans leur sens individuel des droits fondamentaux que dans
l’affectation de sujets collectifs de droits menacés de désintégration, voire de disparition.
33.
Bien que le cadre normatif national inclût dans ses dispositions les concepts
juridiques de la prévalence de l’intérêt supérieur de l’enfant et les éléments punitifs du crime
de recrutement forcé du Statut de Rome, il ne suffit pas à contrecarrer les externalités
négatives qui résultent de l’aggravation du conflit armé colombien. C’est pourquoi, il est
essentiel que la communauté internationale prenne des mesures concrètes fondées sur les
dispositions du DIH et le droit international public (ci-après DIP) pour exhorter la Colombie
à s’engager à remplir ses obligations en faveur des enfants, non seulement en tant que contenu
déclaratif exclusif, mais aussi en tant que manifestations programmatiques tendant à
éradiquer efficacement le recrutement, car la simple bonne volonté politique ne suffit pas.
34.
La protection intégrale des droits de l’enfant en Colombie a été renforcé avec
le Code de l’enfance et de l’adolescence qui a entré en vigueur en 2006 avec la Loi nº 1098,
abrogeant le Code du mineur qui faisait partie de la législation interne depuis les années 80.
Le Code de l’enfance et de l’adolescence reconnaît et incorpore les droits fondamentaux
contenus dans les traités internationaux auxquels l’État colombien fait partie.
35.
L’engagement international de la Colombie en termes de traités en matière de
protection des droits fondamentaux est mentionné dans la nouvelle Constitution Politique de
1991, qui reconnait la Colombie comme un État social du droit, une reconnaissance qui est le
fruit des multiples tentatives de pacification du pays avec sa longue histoire du conflit armé.
Cela n’a cependant pas abouti à son plus grand désir, évoqué dans l’article 22 : « le droit à la
paix ».
17
36.
Par ailleurs, la Colombie a toujours réaffirmé son engagement à garantir et
promouvoir les droits de l’Homme à travers la ratification des principaux traités
internationaux et d’une grande partie des conventions protégeant ces droits fondamentaux.
37.
Ainsi, l’État colombien pour faire face à sa dette envers les victimes du conflit
armé, a adopté en 2011 la « Loi de Victimes et de Restitution des Terres », créant un programme
intégral d’attention aux victimes comprenant des dispositions spécifiques pour les enfants
victimes du conflit face à la protection de leurs droits fondamentaux. Cette loi a reconnu d’une
manière plus formelle le conflit armé en Colombie, même si la Cour constitutionnelle l’avait
déjà évoqué dans ses arrêts.
38.
Aussi, le rôle de la société civile est également mis en avant car la réinsertion
des enfants qui ont été recrutés doit être une priorité des politiques publiques. Pour autant,
l’État reste le premier appelé à garantir les droits des enfants détachés de la guerre et à
satisfaire leurs besoins fondamentaux. Il est aussi vrai qu’il est nécessaire de travailler avec la
société civile pour éviter la stigmatisation, reconstruire les territoires autour de modèles
pacifiques de coexistence et avancer dans la constitution de la mémoire historique.
39.
Dans cette thèse, il est soutenu que le recrutement d’enfants est une pratique
freinant la désescalade du conflit armé colombien. Autrement dit, qu’il s’agit d’une série
d’actions se répétant pour éviter la réduction du taux de remplacement et parce que tant qu’il y
aura un manque de services sociaux et de garanties institutionnelles, il y aura une
participation et un recrutement des enfants dans la guerre.
40.
Parmi les groupes particulièrement vulnérables, il est nécessaire de
mentionner les enfants et adolescents en conflit avec la loi pénale, car il est vrai que les enfants
qui ont été victimes du recrutement forcé sont devenus ainsi des transgresseurs de la loi en
ayant commis de crimes durant la guerre. Ces caractéristiques de personnes en plein
développement les placent dans une situation particulière.
41.
Les enfants sont l’axe de l’espérance de l’humanité, ils sont porteurs de la
promesse de l’existence. Les reconnaître sous ces caractéristiques implique l’effort des pays et
de la Loi pour arrêter le recrutement de mineurs et résoudre les causes qui conduisent aux
conflits armés. C’est aussi un appel à la paix, la démocratie et l’arrêt des actions militaires qui
oublient d’assurer un monde digne aux enfants.
42.
Enfin, la rédaction de cette thèse a été marqué par un suivi attentif du
18
processus de paix entre les FARC-EP et le Gouvernement colombien, ayant la conviction que
l’Accord de paix allait marquer la fin de l’utilisation des enfants dans la guerre. Or, l’actualité
montre une tout autre réalité puisque le recrutement forcé des enfants se poursuie, même si
l’on assiste à la mise en œuvre d’un nouveau processus de justice transitionnelle avec le
Système Intégral de la Vérité, la Justice, la Réparation et la Non-Répétition (ci-après SIVJRNR).
43.
Justification et annonce du plan. L’approche de cette thèse amène à
s’interroger sur l’effectivité du cadre normatif international de protection des droits
fondamentaux des enfants victimes du recrutement forcé. L’effectivité et l’efficacité sont deux
notions qui entretiennent d’étroites relations, mais l’effectivité d’une norme, « repose, dès lors,
soit sur la conformité des comportements suivis par ses destinataires ou par les autorités chargées de sa
mise en œuvre, soit sur la sanction prononcée contre ceux qui ne respectent pas la règle ». Il s’agit « de
faire apparaître la richesse et la diversité des effets, juridiques ou non, que [la norme] engendre »19.
44.
La multiplicité des normes internationales et sa disparité dans le contenu
n’ayant pas des véritables mécanismes de coercition, appelle à une redéfinition du système de
protection des droits des enfants qui ne pourrait se matérialiser qu’à travers l’action engagée
des États. Pour autant, la problématique des droits des enfants victimes du recrutement forcé
reste d’actualité en Colombie. Il existe en effet une relative impuissance de la communauté
internationale à assurer une véritable protection des enfants dans le cadre des conflits armés.
45.
C’est ainsi, entouré d’un ensemble de nuances inhérentes au sujet de
l’effectivité de la protection des droits fondamentaux des enfants, qu’il est nécessaire de
prendre comme point de départ le cadre normatif international de protection des droits de
l’Homme en prêtant une attention spéciale aux normes et mécanismes qui s’occupent de la
sauvegarde des droits des enfants dans le cas de la Colombie (Première partie) pour ensuite,
faire une analyse de l’impact de ces normes juridiques internationales qui protègent les
enfants victimes du recrutement forcé dans le conflit armé en Colombie (Deuxième partie).
19
Y. Leroy, « La notion d’effectivité du droit », Droit et Société, 3 (Nº 79), 2011, p. 717.
19
PREMIÈRE PARTIE – LA PROTECTION DES DROITS DES
ENFANTS VICTIMES DU RECRUTEMENT FORCÉ AU PLAN
UNIVERSEL ET REGIONAL
46. La protection de l’enfance est un sujet d’une très grande importance qui reflète les
engagements des États pour garantir les droits des enfants dans les dernières décennies. La
promotion et protection de leurs droits est en effet possible grâce à divers mécanismes de
sauvegarde qui proviennent de tous les efforts internationaux accueillis par l’État colombien
dans sa la législation interne.
47.
Depuis longtemps, la communauté internationale a fait de la protection des
droits de l’enfant l’un des compromis essentiels dans l’agenda global. Prenant compte de la
délicate situation de la protection des droits de l’Homme en général, il est nécessaire que la
protection des droits des enfants, notamment en période de conflit armé, se matérialise à
travers un corpus juridique assez solide, allant des déclarations et principes définis par le droit
international aux normes internes de la loi colombienne et en passant par bon nombre de
conventions régionales. On peut ainsi faire référence à la Déclaration universelle des droits de
l’Homme (ci-après « DUDH »), aux Pactes internationaux relatifs aux droits de l’Homme, à
l’ensemble des normes du droit international humanitaire (ci-après « DIH »), en particulier
aux Conventions de Genève de 1949 et à leurs Protocoles additionnels, entre autres, qui
forment le cadre normatif de protection des droits de l’enfant.
48.
Cependant, si la consistance et l’importance de ce dispositif juridique
permettant a priori de conclure à l’existence d’un cadre normatif assez exhaustif dans son
ensemble, il existe aussi certaines faiblesses qui remettent en cause l’effectivité des normes
vis-à-vis des enfants victimes du recrutement forcé. En effet, le DIH contemple des normes de
protection pour les enfants durant les périodes de conflit armé, tandis que le droit relatif aux
droits de l’Homme bénéficie d’une applicabilité générale en tout temps.
49.
Toutefois, l’étude du cadre normatif qui prend comme point de départ la
démarche universaliste des droits de l’Homme et l’application exceptionnelle du DIH (TITRE
I), nous permet d’examiner la mise en œuvre effective de ces normes qui font apparaître une
20
certaine ambivalence qui contribue à remettre en question l’applicabilité des mécanismes de
protection des droits de l’enfant victime du recrutement forcé en Colombie (TITRE II).
21
TITRE 1 – LE CADRE NORMATIF
50.
Aujourd’hui, la quasi-totalité des pays du monde a ratifié les textes
fondamentaux de protection de droits de l’Homme, une généralité qui ne s’aligne pas tout à
fait avec la protection de l’enfance surtout dans le cadre spécifique des conflits armés internes,
comme c’est le cas de la Colombie depuis plus de 70 ans.
51.
Plusieurs textes constituent la base de la protection des droits de l’Homme. Par
ailleurs, cela fait soixante et onze années que la DUDH a été adoptée par l’Assemblée générale
des Nations unies (ci-après « AGNU ») et elle se définit aujourd’hui comme le pilier du
système universel de protection des droits de l’Homme (Chapitre 1) celui qui viendra à être
renforcé par la suite avec des normes conventionnelles.
52.
La voie pour déterminer l’universalité des droits pour tous les êtres humains a
été suivie tant par la situation de discrimination qu’ils ont vécue, comme à travers l’adoption
de textes internationaux de protection. Certains sujets et groupes comme les enfants, ont
éprouvé le besoin d’une reconnaissance ponctuelle de la titularité de leurs droits.
53.
L’approche spécifique de certains aspects liés à la protection de l’enfance se fait
à travers le droit international des droits de l’Homme (ci-après « DIDH ») applicable aussi
bien en temps de paix qu’en temps de guerre mais aussi à travers le DIH.
54.
La protection spécifique des droits des enfants s’est faite de façon progressive
(Chapitre 2). D’abord mentionnés dans le droit humanitaire, les droits de l’enfant seront
ensuite reconnus et protégés dans une convention spéciale, qui elle-même donnera lieu à deux
protocoles facultatifs, le dernier visant spécialement à la protection des droits des enfants
impliqués dans les conflits armés.
22
CHAPITRE 1 – LES RÉFÉRENCES GÉNÉRALES
55.
L’objectif de ce Chapitre est de comprendre, à partir du développement de la
création du système universel des droits de l’Homme et des obligations qui en découlent pour
les États, dans quel contexte s’est mis en place l’intérêt de protéger les droits de l’enfant et par
la suite, leurs droits spéciaux en temps de conflits armés.
56.
Dans ce sens, la première Section présente le système universel de protection
des droits de l’Homme. Il sera développé à travers d’une création globale, concrètement
depuis le XVIIIe siècle lors des révolutions historiques qu’ont connu plusieurs territoires du
monde, pour ensuite évoluer plus certainement lors du XXe siècle, et notamment à travers des
deux guerres mondiales consécutives. La fin de la seconde guerre mondiales donnera
naissance à diverses déclarations de protection des droits de l’Homme, tant universelles
comme régionales et spécifiques à certains sujets.
57.
D'autre part, la deuxième Section présente les normes conventionnelles de
protection des droits de l’Homme. Il sera donc fait mention des pactes relatifs aux droits civils,
politiques, sociaux et culturels, adoptés à la fin des années 60, mais aussi des obligations que
ces pactes impliquent pour les États.
SECTION 1 – LE SYSTEME UNIVERSEL ET LA DECLARATION UNIVERSELLE DES DROITS DE
L’HOMME
58.
Il est important de comprendre que le système universel de protection des
droits de l’Homme s’est mis en place progressivement, à partir de contextes locaux, régionaux
et mondiaux où l’humanité a dû apprendre à vivre ensemble, et pour ce faire, a dû créer et
adopter des règles de coexistence.
59.
Par conséquent, le premier Paragraphe de cette Section développe l’historique
de la création du système universel de protection des droits de l’Homme, du XVIIIe aux XXe
23
siècle. Le second Paragraphe traite des déclarations des droits de l’Homme qui ont succédées
aux mouvements historiques et leur valeur au sein de la communauté des États.
Paragraphe 1 – La création du système universel de protection des droits de l’Homme
60.
Le système de protection des droits de l’Homme s’est créé dans un premier
temps à travers des évolutions historiques et sociales qui ont donné naissance à des droits
considérés comme inhérents à la personne humaine. On note un premier temps avec la
Constitution des États-Unis de 1787 qui a limité l’État dans ses actions envers les individus
présents sur son territoire, en l’empêchant d’aller au-delà de ces droits car inhérents à la
personne. Par la suite, c’est en France que sera consacré premier texte de protection des droits
de l’Homme en 1789 avec la Déclaration des Droits de l’Homme et du Citoyen20.
61.
Par la suite, les différents pays du monde adopteront chacun leur tour de
nouvelles Constitutions qui donneront lieu à de nouveaux droits, notamment après la seconde
guerre mondiale où les États ayant cherché à intégrer de nouveaux concepts à leur nouvelle
société post-guerre. On observera alors l’internationalisation des droits de l’Homme.
62.
Si l’on divise le XXe siècle en deux parties on retrouve une première période
jusqu’en 1939, avant la seconde guerre mondiale, et une seconde période après 1945. Dans la
première période ce sont trois instruments juridiques qui ont été pionniers de
l’internationalisation des droits de l’Homme. Dans un premier temps, c’est la protection
diplomatique qui saura s’imposer au XXe siècle comme une obligation de l’État de protéger
ses ressortissants lésés dans des territoires étrangers. Dans un second temps c’est la naissance
du droit international humanitaire, après la première guerre mondiale, qui nous donnera les
premières pistes de droits à respecter en période d’urgence ou de conflit. Par ailleurs, il est
important de rappeler que « le processus de codification du DIH a été amorcé depuis plus d’un siècle
avec les conventions de La Haye, mais n’a connu un développement significatif qu’au lendemain de la
Comme antécédent des déclarations révolutionnaires on trouve d’une part, un texte très ancien, la Magna Carta
anglaise (1215), d’autre part, des textes qui trouvaient leur origine dans les périodes monarchiques : la Pétition des
droits (Petition of Rights) de 1628, l’acte d’Habeas Corpus de 1679 et le Bill of Rights de 1689. Lochak Danièle, Les droits
de l’Homme, Paris, La Découverte (Repères, nº 333), 2005, p. 16-17.
20
24
seconde guerre mondiale »21. Et enfin, se clôturera cette époque avec la création de la Société Des
Nations (ci-après, « SDN ») en 1919, qui n’a pas encore réellement un gros poids sur la scène
internationale mais qui démontre l’idée d’une volonté de rassembler les États autour d’un but
et d’une mission commune. Justement, lors des premières décennies du XXe siècle, quand les
inquiétudes relatives à la situation irrégulière des enfants commençaient poindre dans la
scène internationale, l’organisation “Save the Children” adopte en 1923 la Carte de Genève dans
laquelle s’établissent des recommandations pour la protection des enfants. Le texte fut rédigé
par la pédagogue Eglantine Jebb. Cette déclaration a été ratifiée au sein de la cinquième
assemblée de la SDN en 1924. Le texte de la Déclaration tel qu’annexé à la résolution sur la
protection de l’enfance, adoptée le 26 septembre 1924, est le suivant :
Déclaration de Genève
Par la présente Déclaration des droits de l’enfant, dite déclaration de Genève, les hommes et les
femmes de toutes les nations reconnaissent que l’humanité doit donner à l’enfant ce qu’elle a de
meilleur, affirmant leurs devoirs, en dehors de toute considération de race, de nationalité, de
croyance.
1. L’Enfant doit être mis en mesure de se développer d’une façon normale, matériellement et
spirituellement.
2. L’Enfant qui a faim doit être nourri ; l’enfant malade doit être soigné ; l’enfant arriéré doit être
encouragé ; l’enfant dévoyé doit être ramené ; l’enfant orphelin et l’abandonné doivent être
recueillis et secourus.
3. L’Enfant doit être le premier à recevoir des secours en cas de détresse.
4. L’Enfant doit être mis en mesure de gagner sa vie et doit être protégé contre toute exploitation.
| 1,644
|
tel-03931305-OBERTI_Lea_2022_these.txt_16
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
La Régie au théâtre de l’Opéra Comique (1836-1875) : l’exemple de Louis Palianti et sa Collection de mises en scène. Musique, musicologie et arts de la scène. Sorbonne Université, 2022. Français. ⟨NNT : 2022SORUL062⟩. ⟨tel-03931305⟩
|
None
|
French
|
Spoken
| 7,456
| 11,487
|
222
Cette série de publications est emblématique de la manière dont les journaux
s’emparent du caractère mystérieux de l’activité au sein d’un théâtre. La curiosité du
public pousse certains d’entre eux à publier des articles spécifiquement consacrés à la
technique théâtrale. Des documents très variés (gravures, illustrations, textes annotés,
schémas, action commentée sous forme de texte, description des décors et des costumes)
agrémentent ces publications mais jamais de manière exhaustive. L’hétérogénéité dans la
manière d’aborder le sujet et le caractère parcellaire des informations font l’originalité
des publications dans la presse par rapport aux livrets de mises en scène publiés par les
régisseurs dont Palianti. Bien que publiés parfois dans ces mêmes journaux (c’est le cas
pour Palianti dans La gazette des théâtres) les livrets indépendants prétendent à
l’exhaustivité et se présentent comme un objet fini, complet dont les indications sont
rarement parcellaires et presque jamais lacunaires. Pour pouvoir rassembler autant
d’informations il faudrait compiler les indications distillées çà et là dans la presse, en
envisageant un large spectre éditorial. Par contraste le livret peut être considéré, non
comme un objet concurrent, mais comme une publication centralisatrice d’un faisceau de
précisions. Ces périodiques théâtraux redoublent d’originalité pour exploiter les
exigences de la vie théâtrale du XIXe siècle et assurent un succès durable aux livrets de
mises en scène.
Pour cerner plus en détail les caractéristiques communes à ces publications, il est
utile d’en examiner les professions de foi qui en déterminent la ligne éditoriale, mais aussi
d’analyser quel public est visé, quels sont les choix qui président à la parution de telle ou
telle mise en scène, quel contenu est édité et comment il évolue au fil du temps, quels en
sont les rédacteurs, et enfin quels liens unissent les divers journaux entre eux.
1.4.3.2 Professions de foi et projets éditoriaux des parutions spécialisées
Dans l’ensemble des journaux dépouillés on note la présence quasi systématique de
petits textes visant à justifier leur existence87, ce qui revient à préciser la ligne éditoriale
87
Cette idée de justification revient régulièrement, on la trouve par exemple dans la profession de foi de
La Gazette des théâtres lors de sa première parution. « La Gazette des théâtres justifiera enfin son titre de
la manière la plus complète. Le théâtre, voilà ce qu’elle doit faire connaître ; le théâtre, voilà son but, son
avenir. Un coup d’œil jeté sur la division de nos travaux mettra à même de les apprécier, d’en pressentir
les utiles résultats et de remarquer qu’elle ne s’écarte en rien du tout du but de son institution. Elle demeure
ce qu’elle a été, ce qu’elle sera toujours, une tribune ouverte à tous les artistes, un lien naturel et commode
entre les comédiens entre ceux-ci les directeurs et les auteurs, un recueil officiel de tous les actes émanés
223
de la publication et son potentiel contenu, ainsi qu’à légitimer la parution du journal tout
en précisant à quel public il s’adresse. Ce texte, est la plupart du temps publié lors de la
sortie du premier numéro ou des premiers numéros mais certaines feuilles le publient plus
régulièrement (plus rarement de manière systématique). Bien que la plupart des journaux
vantent, dans un but publicitaire, leur originalité et leur spécificité, on remarque
l’émergence de certaines valeurs communes. Les textes liminaires mettent
particulièrement en avant trois caractéristiques que sont la spécialité, la praticité ainsi que
la neutralité des publications. Le caractère spécialisé de cette presse est mis en avant
comme l’élément permettant de justifier l’existence d’une parution supplémentaire dans
un paysage journalistique déjà plus que foisonnant. Derrière cet argument il faut moins
lire la volonté de se démarquer que celle de se situer et d’assoir sa légitimité. C’est ce
qu’illustre la lettre d’intention rédigée à l’adresse des lecteurs dans le premier numéro de
L’agent dramatique paru le 14 mai 1835 : « À nos lecteurs : malgré le grand nombre de
ses publications quotidiennes et périodiques, la France et l’étranger manquent encore
d’un journal consacré aux artistes et spécialement aux intérêts de l’art dramatique ». Il
s’agit bien de combler une lacune, terme employé à diverse reprises. des autorités auxquelles les théâtres sont soumis enfin une spécialité tout à la fois grave, instructive et
agréable ».
88
Paru dans L’Album des théâtres, Musique, beaux-arts, Littérature, 1er janvier 1867.
224
Extrait de L’Album des théâtres n°2 du 16 novembre 1867.
La spécificité des publications, leur nécessité dans un paysage éditorial défaillant
sont autant d’arguments mis en avant auxquels il faut ajouter la neutralité. La mise en
exergue de cette caractéristique pourrait paraître étonnante mais elle ne l’est pas tant que
cela. D’abord parce que la presse de l’époque, aussi diversifiée soit-elle, est souvent une
presse partisane qui sert de tribune, y compris dans le domaine artistique, mais aussi parce
que les feuilles qui publient des mises en scène affichent une apparente neutralité critique
dans un but commercial89 (vendre un maximum d’exemplaires). C’est une littérature qui
se présente avant tout comme un outil pratique90. En marge des polémiques artistiques,
L’album des théâtres s’engage à prendre le contre-pied des parutions usuelles :
89
Ce protocole adopté pour garantir la neutralité des propos est par exemple placé sous le masque de la
bienveillance comme dans Le Régisseur des théâtres : « Un coup d’œil rapidement jeté sur l’apparition des
nouveautés littéraires, un mot sur la reprise des ouvrages anciens et sur les traditions laissées par les
comédiens créateurs des rôles les plus importants de ces ouvrages, complèteront nos colonnes, desquelles
seront entièrement bannies les louanges exagérées et les critiques acerbes qui, loin d’être utiles à ceux qui
en sont l’objet, ne font que les égarer dans une fausse route, ou les jeter dans le découragement », Le
Régisseur des théâtres, op.cit.
90
Le Régisseur des théâtres n°2 « Le Régisseur des théâtres ne visera jamais à faire de l’esprit ni du style,
son seul but est d’être utile ».
225
Laissant de côté le genre trop répandu de la charge, nous nous attacherons, au contraire, à reproduire
fidèlement les situations principales des ouvrages en vogue91.
Ce projet de contrer la publication d’articles par trop partisans est partagé par
L’Agent dramatique qui remarque qu’en 1835 :
Nous n’avons pas une feuille qui, portant un jugement impartial et motivé sur les ouvrages nouveaux
dont Paris au monopole, donne aux acteurs de la province et de l’étranger, les indications nécessaires
pour les monter92.
Cette posture neutre s’explique en partie par la qualité des rédacteurs. Bien que les
publications soient parfois anonymes, Le Régisseur des théâtres suggère que les
rédacteurs de ce type de publications sont eux-mêmes actifs au sein de cet univers
théâtral :
Artistes nous-mêmes, il nous siérait mal de nous ériger en censeur des artistes ; aussi ennemis de
toute camaraderie, ne serons-nous en fait d’éloge que l’écho des jugements du public93.
Il faut toutefois mettre en perspective ce type de propos. L’aspect commercial de
cette pratique rend impossible une impartialité totale. De plus, les journaux étant dans
l’impossibilité de reproduire toutes les mises en scène de tous les théâtres parisiens, il
s’opère nécessairement une sélection des pièces qui est en soi un acte critique. La
publication d’indications relatives à la mise en scène est donc bien une activité spécialisée
mais dont il convient de nuancer la neutralité, pourtant présentée comme un argument
publicitaire par plusieurs organes de presse. Il est en revanche une qualité de ces
publications, citée dans leur argumentaire et qui n’est pas discutable, c’est leur aspect
pratique. Elles sont un moyen pour un public empêché, notamment par des contraintes
géographiques, d’accéder, bien qu’à retardement, à une certaine idée de la mise en
scène94. C’est un vecteur publicitaire, mais surtout un outil de travail, à l’adresse des
théâtres de province. Ce rôle est constamment revendiqué par les rédacteurs dont le mot
d’ordre est relativement unanime et exprime clairement la finalité de ces publications.
91
ibid.
L’Agent dramatique n° 1, 14 mai1835
93
Le Régisseur des théâtres, n°1, 29 avril 1832.
94
La rubrique « littérature dramatique » de La Gazette des théâtres du 1er octobre 1834 offre un aperçu
assez exhaustif de ce projet : « Nous ne parlons ici que des analyses des ouvrages représentés sur les
différentes scènes de la capitale ; on a pu remarquer avec quel soin nous les rédigeons. Notre but, en donnant
ainsi à ces sortes d’articles la forme et l’intérêt d’une nouvelle est de procurer aux auteurs, aux artistes, aux
directeurs, un moyen de prendre une exacte connaissance des productions de notre scène. Ces analyses
permettent encore d’associer plus convenablement la critique. L’espace que nous leur consacrons nous
donne également la facilité d’y ajouter des citations intéressantes. Ces travaux curieux pour les lecteurs de
la capitale, le sont bien plus pour les lecteurs de la province et de l’étranger. Nous leur fournissons en
quelque sorte la représentation des ouvrages dont ils n’auraient sans nous, qu’une très imparfaite idée ».
92
226
L’idée de partage et de transmission se retrouve dans chaque argumentaire. L’agent
dramatique donne aux acteurs de la province et de l’étranger, les indications nécessaires
pour les monter, pour en représenter les personnages tels que les auteurs les ont conçus,
et qui les fassent assister, pour ainsi dire, à chaque première représentation95.
Même son de cloche du côté du rédacteur en chef de L’Album des théâtres, Th.
Esmard qui affirme à ses lecteurs que :
Pas une pièce nouvelle ne paraîtra, pas un artiste ne se produira avec succès, sans que nous nous
occupions aussitôt de l’œuvre et de ses interprètes. […] La province pourra ainsi profiter, pour
monter ces ouvrages, des indications très précises que nous nous proposons de donner, non
seulement sur l’interprétation artistique, mais aussi sur les principaux costumes des pièces à
succès96.
Cette « réclame » alléchante reflète en partie la vérité du contenu délivré par les
journaux. Elle est dirigée vers un public bien particulier auquel s’adressent ces
publications et dont l’étude permet de saisir les véritables enjeux que soulève la diffusion
de ces livrets de mises en scène. C’est à ce même public que s’adressent les publications
entreprises par Louis Palianti.
1.4.3.3 Les destinataires de livrets de mises en scène
On est en droit de se demander si une publication spécialisée est destinée
nécessairement à un public restreint et spécialiste. Les adresses aux lecteurs sont légion
dans ce type de publication, il est donc assez aisé de s’en faire une idée. Parmi ces
potentiels lecteurs sont invariablement mentionnés et le plus fréquemment cités : « MM.
Les directeurs », avec quelques variations qui apportent un complément d’information,
on trouvera ainsi : MM. les directeurs de théâtres, MM. Les directeurs de province, MM.
Les directeurs de théâtre de province, MM. Les directeurs des départements, MM. Les
directeurs de la province et de l’étranger, autant de synonymes pour désigner ceux qui
occupent des postes de direction théâtrale, mais il faut le préciser, à l’exception des
directeurs parisiens dont il n’est jamais fait mention. Aux directeurs il faut ajouter « MM.
Les régisseurs des départements et de l’étranger ». Cette adresse cible cette fois un autre
corps de métier mais la précision géographique dissociante est toujours présente. Aux
directeurs et aux régisseurs il faut ajouter selon le même modèle MM. Les artistes, ciblés
95
96
L’Agent dramatique, 14 mai 1835 (première parution).
« Aux lecteurs » L’Album des théâtres, Musique, beaux-arts, Littérature, 1er janvier 1867.
227
et distingués par leur lieu d’exercice « MM. Les comédiens de Paris97 » ou leur statut
salarial « M. Les artistes maintenant en disponibilité 98», ou encore « MM. Les abonnés
de la province faisant partie des troupes d’arrondissement ». Bien sûr les combinaisons
sont possibles et le journal peut adresser un message à plusieurs catégories simultanément
« MM. les directeurs et artistes » par exemple. C’est le Régisseur des théâtres qui donne
la vision la plus exhaustive du public auquel sont destinées ses publications, déclarant
que sa publication « intéresse donc à la fois MM. Les directeurs, régisseurs et artistes de
la province et de l’étranger et MM. les auteurs et les comédiens de la capitale99 ». Cette
adresse plus exhaustive est aussi la plus représentative. Les journaux ciblent en fait une
communauté artistique aux postes et fonctions variés, ce qui justifie le soin apporté par
les journaux pour décrire les destinataires. Si, comme chez Palianti, les informations
transmises peuvent intéresser tout un chacun, certaines parutions sont motivées par la
demande de certaines catégories spécifiquement. La publication des mises en scène est
ici présentée comme la réponse à une demande de la part des directeurs de théâtre. Les
rédacteurs de la Revue dramatique laissent deviner cet axe éditorial. « Nous croyons être
agréables à nos lecteurs, et particulièrement à MM. Les Directeurs de théâtre de province,
en joignant à notre Revue la mise en scène des principales pièces 100 ». Certaines
rédactions sont encore plus explicites à ce sujet. Le Gil Blas se targue de publier la mise
en scène de Jenny, opéra-comique d’Henri de St Georges et Carafa créé à l’Opéra
Comique salle Ventadour le 26 septembre 1829 « sur la demande de MM. Les directeurs
des départements101 ». C’est une pratique commune que l’on retrouve sous la plume du
Régisseur des théâtres à propos de la pièce Richard D’Arlington d’Alexandre Dumas102 :
97
On pourrait se demander pourquoi les comédiens de Paris sont mentionnés dès lors qu’ils sont partie
prenante de la création des ouvrages et qu’ils peuvent accéder plus facilement à la source. 99
Le Régisseur des théâtres, op.cit.
100
La Revue dramatique, politique et littéraire, octobre 1828.
101
Gil Blas, 10 octobre 1829, n° 204, p. 4.
102
Richard d’Arlington, drame en cinq actes et en prose, représenté pour la première fois sur le théâtre de
la Porte Saint-Martin, 10 déc. 1831.
228
La distribution de ce drame nous ayant été demandée par plusieurs Directeurs de la province qui ne
l’ont point encore monté, nous ne balançons pas à la donner dans ce numéro. La semaine qui vient
de s’écouler ayant été peu fertile en nouveautés, cette circonstance, nous permet de joindre à la
distribution, la désignation des costumes et des caractères103.
Il est bien sûr difficile de s’assurer de la véracité de tels propos. Ces
recommandations anonymes ne sont pas vérifiables et peuvent paraître suspectes tant les
revues manifestent le besoin d’asseoir leur légitimité et de valoriser les publications. Les
directeurs des théâtres sont certes peut-être par la même occasion caution de la validité
des choix d’édition, mais ils sont de manière certaine des interlocuteurs privilégiés. Cette
hyperspécialisation ne doit pas faire perdre de vue qu’il existe un autre type de public de
lecteurs, celui des amateurs et des curieux. Il ne constitue pas la majorité du lectorat mais
il est pris en compte dans la réflexion éditoriale par certaines feuilles. La Revue du théâtre
prend ainsi la décision en 1835 de publier les mises en scène séparément du corps du
journal car :
Elles sont la chose du monde la plus utile pour les directeurs et artistes, et la plus inutile pour ne pas
dire fastidieuse pour les gens du monde104.
La volonté de s’adresser à un plus large public est perceptible au regard de la place
accordée à la rubrique mise en scène. Ainsi, dans le numéro du 14 février 1838, seule une
demi-page est consacrée à la mise en scène d’Un serment de collège, vaudeville en un
acte de Comberousse. Les « décorations » sont expédiées en quelques lignes vagues,
suivies par une très brève description verbale des costumes. Cet ensemble est accompagné
d’une note : « NOTA : Le petit nombre de personnages nous dispense d’indiquer les
principales positions, assez détaillées sur la brochure105 ». Les éléments fournis stimulent
l’imagination du lecteur mais ne sont pas utilisables en l’état. Ils constituent une sorte
d’accroche publicitaire pour le livret de mise en scène désormais publié séparément. Dès
1838 il y a donc au sein de la presse, une prise d’autonomie du livret que Palianti saura
exploiter pour passer de ses publications dans la presse à une collection autonome éditée
indépendamment d’un journal. Le processus à l’œuvre n’est pas d’exclure la mise en
scène du champ des publications mais de séparer les degrés de précisions des descriptions
103
Le Régisseur des théâtres, n°12, 22 juillet 1832, p. 3.
La Revue du théâtre, 1835 t.3 p. 319. Cette pluralité du public est un souci constant de ce journal :
« Désormais, nous pourrons satisfaire les goûts des diverses classes de nos souscripteurs en mettant sur une
feuille à part, qui donnera aussi plus de variété au recueil, les tableaux du personnel et l’explication des
mises en scène. Cette dernière partie du matériel scénique sera traitée avec un nouveau soin. Ainsi, outre la
description des décors, des costumes et de l’ameublement, nous indiquerons, dans les scènes principales
des ouvrages susceptibles d’être représentés en province, les entrées et les sorties avec la position de chaque
acteur, marquée par un chiffre explicatif, en y joignant des dessins » 1834-1835, T. II, p. 63.
105
La Revue du théâtre du 14 février 1838.
104
229
afin de contenter les divers publics lecteurs qu’ils soient simples curieux ou
professionnels. Les données pratiques s’ajoutent au degré purement informatif constitué
par une brève description des décors et des costumes. C’est bien l’adresse aux
professionnels qui domine, ce que signe entre autres une mention en incipit de la
description : « Toutes les indications sont prises de la droite de l’acteur106 ». Ce choix,
qui n’était pas une évidence dans les publications antérieures montre aussi une volonté
de se rapprocher le plus possible de la réalité du plateau et de la réalisation scénique des
indications fournies. C’est encore une fois une manière implicite de faire référence à un
certain type de public. Notons également pour être tout à fait complet la mention de
correspondants à l’étranger sur lesquels on ne connaît que très peu de détails sinon à
l’occasion, leur lieu d’exercice (principalement les grandes capitales européennes).
Les livrets intéressent bien sûr fortement les lecteurs professionnels mais ils
cohabitent avec une foule d’autres informations qui jalonnent ces publications de la
presse spécialisée. Autour des livrets on trouve toutes sortes d’informations relatives à la
vie théâtrale. Cette presse est un véritable pôle d’échanges en réseau. Si elle assure la
diffusion des informations, elle en gère aussi la collecte. Les lecteurs contribuent euxmêmes à l’élaboration de ces journaux. Pour l’élaboration des livrets, les rédactions sont
plutôt discrètes quant au rédacteur, mais pour les autres rubriques les journaux n’hésitent
pas à mettre à contribution les protagonistes concernés. Au sein d’un même numéro de
journal cette circulation de l’information est lisible. La première étape consiste en la
collecte des informations. La Gazette des théâtres journal des comédiens du 3 avril 1834
fait paraître à ce sujet un avis important :
Au moment où une nouvelle année théâtrale va commencer, nous invitons MM. les directeurs des
théâtres à nous adresser le plus promptement possible les tableaux exacts des personnels de leurs
troupes. Nous invitons également MM. les artistes à nous faire connaître leurs résidences actuelles
et leurs adresses, afin qu’ils n’éprouvent point de retard dans l’envoi de La Gazette des Théâtres107.
Les revendications sont du même type du côté du Régisseur des théâtres :
MM. Les abonnés de la province, faisant partie des troupes d’arrondissement, sont invités à faire
connaître leur itinéraire au bureau du journal, afin d’éviter toute perte de numéro, nous les
avertissons toutefois qu’un moyen de prévenir des pertes semblables serait d’avoir soin chaque fois
qu’ils quittent une ville pour aller en occuper une autre, de prier l’administration des postes de leur
faire tenir leur journal à l’endroit par eux désigné108.
Ces informations sont ensuite restituées créant un réseau d’échange continu entre
les lecteurs et les rédacteurs. Cette même Gazette des théâtres émaille son discours de ce
106
Formule récurrente dans les livrets de la collection.
La Gazette des théâtres journal des comédiens, 3 avril 1834.
108
Le Régisseur des théâtres « avis essentiel », n°14, 29 juillet 1832.
107
230
type d’éclaircissements. En 1832, elle déclare « M. Perlet, libre de contracter depuis ce
moment jusqu’au premier avril 1833.109 ». Quelques semaines après elle mentionne tous
« les artistes en représentations110 » c’est-à-dire en activité. Ces mentions ne sont pas
anecdotiques et la revue s’engage à cet égard soutenant que « Chaque premier numéro du
mois contient le nom des Artistes qui ont des congés à exploiter, et l’itinéraire connu de
chacun d’entre eux ». Preuve de ces enjeux, une même formule introductive est répétée
au début de chaque rubrique consacrée aux congés :
Le Régisseur des Théâtres ne visera jamais à faire de l’esprit ni du style, son seul but est d’être utile,
et pour y parvenir, il ne craindra pas de se répéter ; aussi, remettra-t-il sous les yeux de ses lecteurs
dans le premier numéro de chaque mois les noms des artistes qui obtiennent des congés et leur
itinéraire. De cette manière, MM. Les directeurs de province seront plus à même d’utiliser le talent
de ces artistes111.
Cette restitution des informations est au cœur de la concurrence que se livrent les
diverses publications spécialisées et notamment la Gazette des théâtres et le Régisseur
des théâtres qui utilise l’argument de l’authenticité à des fins promotionnelles :
Nous sommes autorisés à rectifier la nouvelle donnée par la Gazette de Théâtres du renouvellement
de l’engagement de M. et Mme Auzet au théâtre de Brest ; ces deux artistes sont libres de contracter
pour la nouvelle année dramatique. Nous rappelons à cette occasion que M. Auzet a tenu son emploi
avec distinction, tant à Bordeaux qu’à Lyon et autres villes du premier ordre112.
Si ces journaux ont tant besoin de faire leur autopromotion au détriment de la
concurrence c’est parce qu’ils sont rattachés par des liens plus ou moins forts aux agences
théâtrales aussi appelées « correspondants des théâtres » dont ils peuvent être l’organe de
presse, ou avec lesquelles ils collaborent. Ce statut est plus ou moins assumé selon les
titres de presse. Le Régisseur des théâtres donne des indices explicites sur ces activités :
Tous les ouvrages annoncés dans notre feuille se trouvent à notre bureau. Il suffit
d’envoyer deux exemplaires d’un ouvrage pour que l’annonce soit faite113.
À l’opposé de cette discrète mention, L’Agent dramatique 114 livre un véritable
catalogue des informations dont peuvent espérer bénéficier les abonnés et promet :
1° l’état nominatif par emploi des acteurs sans engagement, disponibles à Paris et en province ; 2°
L’état nominatif de ceux employés soit à Paris, soit dans les départements, qui n’ayant qu’un
engagement limité, auront la faculté d’accepter une autre destination pour le renouvellement de
l’année, ou qui ne voudront en contacter que pour l’hiver (le journal reproduira les noms des acteurs
tant qu’ils ne seront pas placés) 3° L’itinéraire exact de la route que devront parcourir les artistes en
109
La Gazette des théâtres journal des comédiens, n° 25, 14 octobre 1832.
La Gazette des théâtres journal des comédiens n° 28, 4 novembre 1832.
111
Le Régisseur des théâtres, n°2 janvier 1832.
112
Le Régisseur des théâtres, « Nouvelles des départements », n° 5, 3 février 1833.
113
Le Régisseur des théâtres, n° 19 du septembre 1832.
114
Pour lever toute ambiguïté sur le contenu, l’Agent dramatique adopte comme sous-titre « journal de
publicité théâtrale ».
110
231
voyage, donnant des représentations, concerts, etc. ainsi que l’époque précise de leur départ de Paris
et celle de leur retour. ; 4° L’annonce des succès obtenus individuellement à Paris et dans les
départements ; 5° L’énumération et le mouvement des troupes dramatiques et lyriques de la France,
les nouvelles des théâtres, tous les avis utiles et importants. Enfin, Le Bulletin de Paris sera le
correspondant obligé de ses abonnés.
Cette publication, liée à l’Agence générale, au moyen de laquelle s’opéreront toutes les mutations
annuelles, sera un nouvel élément de succès pout cet établissement. La correspondance en deviendra
plus active avec les directeurs et les acteurs, et les diverses insertions demandées par les commettants
seront activement transmises et produites dans les articles spéciaux.
L’agence générale fera, comme par le passé, les engagements des acteurs avec les directeurs ; se
chargera des envois de musique, partitions, brochures, costumes et accessoires. Elle recevra
également en dépôt les bibliothèques de musique et autres objets.
Ce n’est pas une adaptation opportuniste d’un certain type de presse mais un
véritable projet, une nouvelle fonction dévolue à ces publications :
Faire affaire soi-même, s’affranchir des intermédiaires, reconnaître que le journal, tour à tour
drapeau, chaire et tribune, peut devenir aussi : affiche, agence et marché ne sont-ce pas là des
caractères particuliers aux aspirations nouvelles ? […] c’est pourquoi nous créons, l’AGENT
DRAMATIQUE. La liberté des théâtres […] va donner un développement immense à tout ce qui
touche de près ou de loin à l’art théâtral. […] Nous voulions que notre journal soit un agent
dramatique. […]. Mais nous ne serons qu’un journal derrière cet AGENT pas d’agence. Nous ne
serons qu’une feuille de publicité théâtrale115.
Ces titres de presse sont au cœur d’un maillage étoffé qui se décline à plusieurs
échelles géographiques allant de la région à l’international. Ainsi, une publication ayant
pour titre « l’agent dramatique du midi correspondant des théâtres » se présente comme
« organe spécial et officiel des spectacles, des salons, des modes et de la littérature qui
paraît à Toulouse tous les jeudis. » membre de l’Association des Agences théâtrales de
France et de l’étranger, siégeant à Toulouse. Cela laisse à penser que ces publications
sont autant de chaînons participant à un réseau étendu de publications théâtrales. Pour ces
journaux, la transmission de la mise en scène, et la qualité de conditions qui rendent
possible sa réalisation qualitative sont une motivation qui s’ajoute aux ambitions
commerciales. En effet, Il ne s’agit pas uniquement de vendre des exemplaires, il s’agit
de convaincre les abonnés de la valeur de la publication afin d’en tirer profit pour vendre
des produits liés à la mise en scène et complémentaires des livrets (partitions, livrets
maquettes etc…). Cela implique que l’information délivrée comporte une composante
marchande qui évacue toute neutralité. Il ne faut donc pas oublier que les informations
transmises ne le sont pas seulement pour « l’amour de l’art » mais à des fins économiques.
Il est parfois difficile de percevoir cet aspect à première lecture car les informations
délivrées peuvent être assez factuelles qu’il s’agisse d’offres d’emplois116, ou de matériel
115
L’Agent dramatique, 30 octobre 1864, « l’agent dramatique », p. 1, J.F. Arnould.
« M. Norzzi désire une place de régisseur général ou un emploi de premier comique en tous genres, pour
PARIS. Il a tenu ces deux emplois dans plusieurs grandes ville (Offre audition) Il traiterait à 250 francs par
116
232
disponible117. Les recommandations fluctuent entre deux opposés que sont les conseils
énoncés clairement de manière déclarative et les articles qui cherchent de manière plus
ou moins déguisée à « vendre » tel artiste ou telle œuvre. Les recommandations
concernent autant les distributions que la réalisation pratique. La Gazette des théâtres
journal des comédiens prévient :
Ces deux rôles comiques ne peuvent être joués que par des artistes qui ont entre eux quelque
ressemblance. MM. les directeurs devront ne pas oublier cet avertissement lors de la distribution
qu’ils feront de l’ouvrage118.
Ces conseils sont très concrets et portent jusqu’à la qualité des accessoires utilisés :
Le Régisseur des théâtres croit devoir recommander à MM. Les régisseurs des départements et de
l’étranger un piano meuble, qui ne peut manquer d’être bientôt adapté à la scène et par son élégance
et par la beauté de ses sons, et surtout par la facilité qu’on éprouve à le transporter de place en place,
sans nuire en aucune manière à l’accord119.
C’est typiquement le genre d’informations que l’on retrouve chez Louis Palianti.
La limite entre le fait de prodiguer des conseils120, l’influence exercée sur le lecteur,
et le contenu ouvertement publicitaire est parfois ténue et floue. En plus des encarts
publicitaires destinés aux différentes professions artistiques, une autre forme de réclame
se fond dans la trame rédactionnelle du journal. Cette promotion peut concerner les
mois. Écrire, franco, rue Saint Denis, 301. » L’Agent dramatique. On peut aussi lire dans le n°10 du
Régisseur des théâtres « Nota. Nous croyons devoir avertir MM. les Directeurs de la province et de
l’étranger que, mandataires spéciaux de plusieurs Artistes susnommés, nous nous chargeons d’être au
besoin l’écho de leurs propositions auprès de ses Artistes, s’adresser à notre bureau de correspondance,
dont le siège provisoire est rue Bleue, n°1 ».
117
« Nouvelles des départements et de l’étranger », Le Régisseur des théâtres, n° 10, 10 mars 1833 : « Dans
un moment ou l’année théâtrale est sur le point de se terminer et d’amener des mutations nombreuses, nous
croyons devoir porter à la connaissance de MM. les directeurs et artistes, que Mme Gobert, actuellement à
Limoges tient à leur disposition un magasin d’habits et de costumes de théâtre au grand complet, un
assortiment de musique de vaudevilles, composé de plus de cent partitions et de cinq à six cents brochures».
L’agent dramatique du 30 octobre 1864 montre comment cette fonction dédiée à l’emploi se perpétue tout
au long du siècle « Bureau abonnements et insertion rue de la Victoire, 43 ».
« L’Agent dramatique par sa publication des offres et demandes d’emploi a pour but de mettre en rapport
direct les directeurs et les Artistes. Les abonnés ont le droit en insertion le prix de leur abonnement ».
118
La Gazette des théâtres journal des comédiens n°22 du 30 septembre 1832 à propos du vaudeville en
un acte Les deux grivets, par MM. de Courcy et Carmouche donné Théâtre du Palais-Royal le samedi 22
septembre 1832.
119
« Conseils aux directeurs de province », Le Régisseur des théâtres, n° 5, 3 février 1833, p. 4.
120
Une rhétorique assez intelligente est par ailleurs mise en place par certains journaux pour donner
l’illusion aux directeurs de provinces qu’ils gardent une forme de souveraineté sur leur projet théâtral, en
mettant en valeur la partie qui leur revient et constitue une lourde part de leur travail : la distribution des
rôles aux membres de la troupe : « Nous avons cru devoir donner ainsi la distribution de cette pièce,
conforme aux différents emplois des artistes de Paris. Nous avertissons toutefois MM. Les directeurs des
départements qu’à l’exception de Francis, d’Auguste et de Boquet, les autres rôles doivent être distribués
selon la convenance des artistes de leur troupe ». Le Régisseur des théâtres, n° 16, 12 août 1832.
233
artistes ou directeurs, nominativement121 ou selon leur emploi122, mais elle concerne plus
particulièrement les mises en scène. Les journaux vantent tour à tour l’originalité d’une
pièce qui « peut offrir à MM. les Directeurs de théâtre le moyen de varier fort
agréablement leur répertoire123 », la facilité à monter un ouvrage124, ou l’assurance d’un
succès auprès de leur public :
D’une idée un peu commune peut-être, et quelque peu invraisemblable, les spirituels auteurs du
Conseil de révision on fait un tableau étincelant de gaîté et de verve ; nous en donnons ici la mise
en scène, en engageant MM. les Directeurs des départements à offrir cette pièce à leurs habitués,
nous leur prédisons un succès125».
Au regard de ces observations, Ces publications spécialisées alimentent un système
d’interactions entre le monde du théâtre et le monde de la presse car lecteurs, spectateurs,
professionnels s’y confondent. La presse observe un intérêt à fidéliser son lectorat car elle
sert d’intermédiaire aux professionnels dans la diffusion des matériaux et des documents
utiles aux théâtres de province, eux-mêmes en relation avec les agences dont dépendent
parfois ces publications. Les régisseurs auteurs des livrets, dont Palianti, entretiennent
eux-mêmes des rapports étroits avec ces agences126. Cette publicité orchestrée par les
feuilles théâtrales, et les enjeux économiques que cela implique, posent la question des
critères de choix des œuvres publiées. Pour les parutions, ciblent-elle une œuvre plutôt
qu’une autre, quels arguments entrent en jeu ? Des indices disséminés au gré des
parutions donnent quelques éléments de réponse à ce sujet. Dans ce domaine, la lecture
du Régisseur des théâtres est particulièrement éclairante.
121
Le Régisseur des théâtres, n°12, 22 juillet 1832. « MM. Jeault et Polin viennent d’être réintégrés dans
leur privilège de Limoges et autres villes. C’est une bonne fortune que nous annonçons à ceux de nos
lecteurs qui pourront être appelés à traiter avec ces deux messieurs. L’année présente répond du succès de
l’année prochaine ».
122
« Chronique théâtrale », Le Régisseur des théâtres, n° 12, 24 mars 1833, à propos des Souvenirs de
Lafleur, opéra-comique, paroles de MM. Carmouche et de Courcy, musique de M. Halévy : « cette pièce
dont nous avons donné les costumes et la facile mise en scène, sera une bonne fortune pour les villes de
province, ou, depuis longtemps les artistes qui tiennent l’emploi de Martin-Chollet n’ont eu l’occasion de
monter un rôle aussi brillant que celui de Lafleur ».
123
Le Régisseur des théâtres n °19 du 2 septembre 1832 à propos de Norbert ou le Campagnard comédievaudeville en un acte par MM. Lemoine-Montigny et Edouard Lemoine « cette pièce d’un style vif et gai,
a beaucoup gagné depuis son apparition première ; nous pensons que, jouée en province elle peut offrir à
MM. les Directeurs de théâtre le moyen de varier fort agréablement leur répertoire ».
124
« Adresse aux directeurs à propos Juanita de drame en deux actes par MM. Paulin et Paul Foucher », Le
Régisseur des théâtres, n° 5, 3 février 1833, p. 2 « nous donnons la mise en scène de ce petit drame très
facile à monter ».
125
La Gazette des théâtres journal des comédiens, n°16, 12 août, 1832.
126
Palianti commence par exemple à publier ces livrets au sein de la presse dans La Revue et Gazette des
théâtres.
234
1.4.3.4 Les critères de sélection des mises en scène publiées
Au vu de la foisonnante vie théâtrale, et en raison du rythme soutenu de création
dans la capitale, il est impossible pour la presse spécialisée, et ce en dépit de ses nombreux
titres, de publier l’ensemble des indications de mises en scène de tous les spectacles
parisiens. La cause en est logistique (le temps dépensé pour récolter les informations)
mais aussi artistique car les journaux se portent caution de la qualité des pièces présentées
dont ils vantent les mérites. Ces informations n’ont pas seulement pour but d’être portées
à la connaissance générale d’un lecteur curieux mais, elles président à des choix
esthétiques et financiers dont se préoccupent les acteurs et directeurs des théâtres. Un
véritable filtrage du répertoire s’opère au détour de cette sélection qui constitue une sorte
de « panthéon » des mises en scène. Le répertoire soumis aux théâtres de province est un
répertoire orienté. Derrière des critères présentés comme objectifs tels le succès de
l’œuvre lors de la création parisienne, se cachent une multiplicité d’enjeux plus
complexes dont les publications témoignent au détour de commentaires parfois très
explicites. Les choix éditoriaux relèvent, selon les publications, de considérations qui
parfois se combinent entre elles. La réponse à une demande, l’adaptabilité d’une œuvre à
une scène et sa complexité, tant en matière de parution qu’en matière de réalisation
scénique, le potentiel lucratif, la portée politique ou encore l’actualité théâtrale
conditionnent et orientent les choix des rédacteurs.
Il faut garder en tête que malgré l’objectivité affichée (les succès sont la plupart du
temps confirmés par les comptes rendus de représentations d’autres titres de presse), les
choix sont dictés par des considérations plus subjectives. Cela est parfaitement
compréhensible lorsque les journaux sont les organes publicitaires d’agences dramatiques
qui se proposent de fournir le matériel nécessaire à la réalisation des œuvres (maquettes,
partitions, livrets et livrets de mises en scène). Mais pour les autres titres, on peut supposer
qu’une influence plus discrète s’exerce, sans laisser de traces. En effet, les rédacteurs et
transcripteurs appartiennent en majorité au même monde théâtral, et plus
particulièrement, au microcosme parisien au sein duquel ils peuvent difficilement
échapper à une forme de camaraderie, d’amitié, ou d’inimité. De même que le système
organisé de la claque décide frauduleusement et arbitrairement de la destinée d’une
œuvre, et par la même occasion, de l’édition de sa mise en scène, la presse peut être aussi
victime d’influence même si cela est plus difficile à prouver.
235
Un des premiers critères de sélection qui saute aux yeux est l’origine géographique
de la pièce : elle se doit d’être parisienne. La publication des indications de mise en scène
est unilatérale et la circulation se fait systématiquement dans le sens Paris/province, quels
que soient les journaux concernés. Cela signe implicitement la reconnaissance, non
seulement d’une centralisation théâtrale poussée à l’extrême, mais aussi de la suprématie
parisienne en termes de qualité artistique127, c’est un « modèle » qui est donné à voir au
travers des créations parisiennes. Au détour de certaines rubriques, Le Régisseur des
théâtres assume parfaitement cette posture affirmant par exemple que :
Il est vraiment très avantageux pour un artiste de Paris d’apparaître quelquefois en province ; isolé
de ses confrères et loin de cet horizon où l’habitude du beau fait trouver tout ordinaire, il ressort
davantage128
Le ton est parfois à la limite de la condescendance à propos de la troupe de Moulins
dans l’Allier, on peut lire :
En définitive, cette troupe offre plus d’ensemble et d’aptitude scénique qu’un parisien ne pourrait
l’espérer d’une troupe de province129.
Cela ne laisse guère de doute quant au crédit porté par les Parisiens aux troupes de
province. On sent bien ici que ce n’est pas seulement le manque des moyens matériels
qui fait défaut mais aussi la qualité du personnel artistique dont la supposée médiocrité
est régulièrement pointée du doigt :
Qu’est-ce aujourd’hui qu’un acteur de province ayant du talent ? Une réputation qui s’étend à peine
aux limites du département. Mais a-t-il un nom ? Point. […]. Aujourd’hui, il n’y a bien réellement
pour un acteur de talent, que les théâtres de Paris, ou, secondé par des acteurs ou d’un talent égal ou
d’une grande intelligence, il peut s’abandonner sans contrainte aux inspirations et aux effets nés de
ses études. Il nous faut des voix pour chanter et non pour jouer 130.
127
Certains textes publiés ne laissent aucun doute à ce sujet comme Le Régisseur des théâtres, n°11, 17
mars 1833 : « « Les théâtres des départements sont dans un abandon complet. La haute société n’y va plus
: sans chercher les raisons, assez futiles peut-être, qui l’éloignent du spectacle, nous avouerons qu’en effet
on a, en général, peine à se décider à aller dans des lieux d’où le bon goût semble banni, et où la médiocrité
des acteurs est désespérante. Quant à la masse du public, elle ne court plus qu’où la curiosité l’appelle ; or,
les théâtres des départements vivent, depuis cinquante ans si tant est que l’on puisse appeler cela vivre, sur
un vieux et insipide répertoire, qui nous reporte toujours au passé. […]. Paris est devenu le centre des arts,
non point parce qu’il s’y trouve un public plus instruit que dans les départements, mais parce que c’est le
rendez-vous de tous les artistes distingués, et que ce sont les bons artistes qui forment le goût. » Il en est de
même de l’aspect matériel : « les décorations qui meublent les théâtres des départements sont immensément
en arrière, eu égard aux progrès de cette partie si intéressante de la peinture, entièrement abandonnée
aujourd’hui en province et dont il est à peu près impossible de se faire l’idée, si l’on n’a pas vu les théâtres
de Paris et de Londres ». L’interprétation n’est pas en reste « franchement les auteurs peuvent-ils croire que
leurs ouvrages sont convenablement représentés en province. Les opéras notamment après avoir été châtrés
par les maîtres d’orchestre, sont véritablement travestis, parodiés, défigurés, par des chanteurs la plupart
du temps sans voix, sans méthode, dépourvus de ce sentiment musical ».
128
« Nouvelles des départements ». Le Régisseur des théâtres, n°9, 24 juin 1832.
129
« Nouvelles des départements » Le Régisseur des théâtres, n°11, 8 juillet 1832 citant La Gazette
constitutionnelle de l’Allier, 30 juin 1832.
130
Le Régisseur des théâtres, n°11, 8 juillet 1832.
236
Cet écart sensible entre les niveaux des différents professionnels est semble-t-il,
particulièrement marqué dans le domaine de l’Opéra. Les propos ne sont certes pas aussi
tranchés dans d’autres revues plus prudentes, mais leur publication laisse à penser qu’ils
sont admis par une partie des lecteurs. Pour remédier à ce déséquilibre territorial, Le
Régisseur des théâtres propose dans son édition du 17 avril 1833 un projet de réforme
théâtrale pour les théâtres de province, sous le titre de « Projet d’une nouvelle
organisation des théâtres dans les départements et principalement dans les grandes
villes » :
Est-il possible de ramener le public au théâtre, par le seul attrait des Beaux-Arts ? Avec la
constitution actuelle des théâtres, non. Avec une organisation nouvelle, oui. […] À l’époque où nous
sommes il n’y a d’amélioration possible que par l’association […]. Nous proposerions donc une
grande association pour l’exploitation simultanée des 10 théâtres des 10 villes les plus populeuses
de France : Lyon, Marseille, Bordeaux, Rouen, Nantes, Lille, Toulouse, Strasbourg, Metz, Orléans.
Cette association formerait dix troupes dramatiques dont le sujet serait choisi avec le plus grand soin
pour tous les emplois […] ces troupes exploiteraient tour à tour pendant un mois chacun des dix
villes indiquées, et se succéderaient de ville en ville d’après un ordre établi de manière à rendre les
voyages le moins long possible d’une ville à l’autre […] la succession aurait lieu de manière à varier
le plus possible les genres de spectacles131.
Ce n’est pas l’autonomie qui est visée, mais bien un alignement de troupes
spécialisées sur le modèle parisien, modèle qui demeure la norme et auquel les nouvelles
troupes devront se soumettre par le biais d’une formation dans la capitale. La méthode
envisagée est la suivante :
Les dix troupes se réuniraient alors toutes à Paris, pour faire les répétitions générales des quinze
pièces de leur nouveau répertoire, qu’elles auraient déjà étudiées dans le courant de l’année et
choisies parmi celles qui auraient eu le plus de succès à Paris. Pendant ces deux mois, les acteurs
des dix troupes prendraient les bonnes traditions, s’éclairant des conseils des artistes les plus
capables, recevant les observations des auteurs mêmes dont ils mettraient en scène les productions,
et qui auraient à la fois intérêt financier et d’amour propre à suivre les répétitions dans tous les
détails propres à faire valoir leurs ouvrages. Les avantages pour l’avancement de l’art nous semblent
incalculables : ce serait le moyen trouvé d’assurer l’utilité de la centralisation à Paris, sans la rendre
exclusive132.
Ce qui pourrait passer pour un projet de décentralisation, n’est en fait qu’un
alignement, mettant les troupes de province davantage sous la coupe de l’autorité
parisienne. Cette autorité semble ne pouvoir être remise en cause y compris au sein de
projets réformateurs. D’ailleurs le modèle présenté envisage que les troupes soient
dégagées de leur dépendance financière à l’égard des villes qui les subventionnent. Le
maillage artistique territorial est mis d’office sous la coupe d’une institution
centralisatrice.
131
132
ibid.
ibid.
237
En plus d’être une émanation parisienne, la pièce dont la mise en scène va être
livrée à la connaissance des lecteurs doit remplir d’autres conditions. L’un des prérequis
qui revient le plus souvent sous la plume des journalistes est la notion de succès. Une
pièce pour être digne d’être publiée doit avoir reçu l’aval du public parisien, réputé
exigeant et au goût sûr. C’est un choix peu courageux mais qui engage la crédibilité et
donc la bonne fortune du journal. L’arbitrage n’est d’ailleurs pas totalement assumé par
certains journaux qui ne se présentent pas comme on pourrait l’attendre en témoins directs
du triomphe du spectacle. Le choix se fait pour le régisseur des théâtres « après avis », ce
qui pourrait induire que le choix ne soit pas uniquement une décision ferme de la
rédaction, mais la conséquence d’un travail d’investigation visant à recouper le plus
objectivement possible les différents avis. Cette version est crédible dans la mesure où
pour vendre leurs publications, les journaux ont tout intérêt à s’engouffrer dans
l’engouement soulevé par une œuvre 133 . Certains succès moins flamboyants peuvent
néanmoins faire l’objet de publication à condition que la demande soit suffisante et
formulée auprès du journal. Pour Le Régisseur des théâtres :
Si le succès de ce drame ne […] paraît pas suffisamment établi pour en donner la mise en scène dans
notre feuille, comme correspondants nous tenons à la disposition de MM. les Directeurs qui
pourraient la souhaiter, ladite mise en scène et des notes susceptibles de rendre plus facile la
représentation de cet ouvrage134.
| 1,760
|
16/hal.archives-ouvertes.fr-tel-01107308-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,809
| 16,944
|
1,0 Chapitre I : Généralités VI- Mouvement des parois de domaine VI-1- Description du phénomène
Le basculement de la polarisation dépend du mouvement des parois de domaine et des défauts présents dans le matériau. Le déplacement des parois de domaine est ainsi visible lorsque l'on mesure la permittivité ou le coefficient piézoélectrique en fonction de la contrainte appliquée [I-29]. Il est intéressant de prendre en compte le mouvement des parois d'un matériau multidomaines soumis à une contrainte excitatrice Eexc ou σexc. Dans le cas où l'amplitude de cette contrainte est faible, l'énergie apportée n'est pas suffisante pour décrocher la paroi du défaut sur lequel elle est épinglée (pinning center). Elle ne peut donc, dans cette situation, que vibrer autour de sa position d'équilibre tel un oscillateur harmonique. La situation est alors similaire à celle rencontrée pour les électrons des atomes : la constante diélectrique liée à ce processus est indépendante de la contrainte excitatrice. Si l'amplitude Eexc ou σexc est supérieure à un certain seuil Eth ou σth (qui dépend du matériau et du défaut considéré), la paroi peut se libérer de son défaut et se déplacer à travers le matériau ferroélectrique. La paroi sera bien sûr épinglée par la suite sur un autre défaut. Dans les matériaux ferroélectriques, la mobilité des parois dépend donc de la concentration de défauts et les parois sont soumise à un potentiel énergétique qui, à cause de la répartition aléatoire des défauts dans le matériau, est lui aussi aléatoire (Figure I-20).
Potentiel Déplacement irréversible Déplacement réversible Position de la paroi
Figure I-20 : Variation de l'énergie de potentiel générée par les défauts, en rouge, la contribution réversible due aux vibrations de la paroi, en bleu la contribution ir
versible due au saut. L'observation expérimentale, par exemple, de la permittivité en fonction du champ électrique permet ainsi de diviser le domaine d'application en trois zones (Figure I-21) : Zone I : Il s'agit de la zone des faibles champs. Dans cette zone, la permittivité est constante et possède une valeur initiale εini. L'amplitude du champ est trop faible et les parois ne font que vibrer autour de leur position d'équilibre. La permittivité est qualifiée ici de réversible car elle reprend sa valeur initiale lorsque l'on relâche la contrainte. Zone II : Cette zone est appelée zone de Rayleigh car la constante diélectrique y varie linéairement avec l'amplitude, conformément à la loi de Rayleigh. Dans cette zone, Chapitre I : Généralités l'amplitude du champ électrique varie d'une valeur seuil Eth1 jusqu'à une valeur Eth2 généralement prise au tiers ou à la moitié du champ coercitif Ec. Dans cette zone, la permittivité est qualifiée d'irréversible car la paroi effectue un saut d'un défaut à un autre ce qui modifie l'état de polarisation. Ainsi, la permittivité ne reprend pas sa valeur initiale lorsque la contrainte est relâchée. Zone III : Il s'agit de la zone des champs forts. Elle débute pour un champ Eth2 appelé champ de phase. Dans cette zone, la constante diélectrique (ou le coefficient piézoélectrique) ne suit plus une évolution linéaire. On dit généralement que cela est dû au basculement de la polarisation qui se produisent localement au sein du matériau.
1,20 III ε /εinit 1,15 II 1,10 I 1,05 1,00 0,95 0,0 Eth2 Eth1 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 E0 (u.a) Figure I-21 : Evolution de la permittivité en fonction du champ électrique appliqué. Trois zones sont observées : I : Zone des faibles champs, II
Zone de Rayleigh et III : Zone de champs forts. VI-2- Modélisation du mouvement des parois VI-2-a- La loi de Rayleigh
En 1887, Lord Rayleigh propose une loi permettant de décrire, pour les matériaux ferromagnétiques, l'évolution de la perméabilité magnétique en fonction de l'amplitude du champ magnétique appliqué dans une gamme de champ intermédiaire (zone II Figure I-21) [I-46]. Pour Rayleigh, il s'agit d'une loi empirique, fondée sur l'observation, sans support théorique. Par la suite, Louis Néel a démontré que le mouvement d'une paroi magnétique baignant dans un potentiel aléatoire, créé une aimantation qui peut être décrit par la loi de Rayleigh [I-47]. Cette loi a ensuite été adaptée aux cas des matériaux ferroélectriques. Elle permet de donner une bonne description de l'évolution du comportement diélectrique et piézoélectrique dans la zone II, notamment pour les couches minces [I-48] [I-49] [I-50]. On a alors :
ε(Eexc) = ε(0) + αεE Eexc ε(σexc) = ε(0) + αεσ σexc d(Eexc) = d(0) + αdE Eexc d(σexc) = d(0) + αdσ σexc -35- (I-36) (I-37) (I-38) (I-39)
Chapitre I : Généralités ε(0) et d(0) sont respectivement la permittivité et le coefficient piezoélectrique du matériau pour une contrainte appliquée nulle. αεE, αεσ, αdE et αdσ sont les coefficients intrinsèques au matériau représentant l'influence des sauts de parois de domaines. Ce paramètre dépend fortement du potentiel subit par la paroi et donc de son environnement. Plus il y a de défauts dans le matériau, plus la paroi a de chance de rester piégée dans un puits profond et donc de vibrer autour de cette position d'équilibre. Le paramètre α de la loi de Rayleigh ainsi sensible à la densité de défauts dans le matériau. Lorsque la contrainte appliquée est trop élevée, le basculement de polarisation globale intervient et la courbe expérimentale s'éloigne de la loi de Rayleigh [I-49]. La difficulté principale de cette loi est de déterminer correctement les champs de seuil Eth1 et Eth2, bornes de l'intervalle d'ajustement des courbes expérimentales. Une détermination erronée de ces deux champs conduit à une valeur incorrecte de α. Sur les matériaux doux, par exemple, le champ de seuil Eth1 est grand et seule une faible partie de la zone II est mesurée. Il est alors difficile de bien repérer le champ de seuil ainsi que la variation linéaire de ε et d et l'on se trouve réduit à utiliser un polynôme d'ordre deux ou trois [I-51]. VI-2-b- La loi hyperbolique
Afin de généraliser la loi de Rayleigh pour les matériaux durs et doux, une loi, appelée « loi hyperbolique » a été proposée [I-52]. Cette loi permet de décrire la permittivité et le coefficient piézoélectrique dans les zones I et II et de s'affranchir ainsi de la détermination du champ de seuil Eth1. Dans la zone I, une paroi de domaine ne fait que vibrer autour de sa position d'équilibre, ε et d sont donc constants. Dans la zone II, la paroi de domaine effectue des sauts et ε et d varient linéairement conformément à la loi de Rayleigh. Cependant, dans un matériau ferroélectrique, il existe une multitude de paroi de domaine ayant chacune un environnement différent, notamment en ce qui concerne les défauts. Ainsi, le potentiel subit par une paroi, et propre à l'environnement dans lequel elle se situe, ne sera pas identique pour chaque paroi. Aux alentours du champ seuil moyen Eth1, certaines parois effectueront un saut pendant que d'autres ne feront que vibrer autour de leur position d'équilibre. Pour prendre en compte l'ensemble des contributions des parois, il est nécessaire de réaliser une moyenne quadratique de chaque contribution :
ε wall = (ε ) + (ε jump ) d wall = (d ) + (d jump ) 2 vib 2 vib 2 2 (I-40) (I-41)
Le terme εvib correspond à la contribution réversible de la permittivité. Celle-ci est due à la vibration des parois de domaine que l'on peut assimiler à un oscillateur harmonique. Le deuxième terme εjump représente la contribution irréversible de permittivité. Elle est due au saut de la paroi. Elle est égale à αεE Eexc, αεσ σexc, αdE Eexc ou αdσ σexc conformément à la loi de Rayleigh. Les (I-40) et (I-41) ne prennent en compte que la contribution des -36- Chapitre I : Généralités parois de domaine. Pour avoir la permittivité totale ou le coefficient piézoélectrique total du matériau, il convient de rajouter la contribution du réseau εbulk ou dbulk : ε = ε bulk + (ε ) +
(
ε d = dbulk + (d ) + (d ) 2 vib jump 2 vib jump 2 ) (I-42) 2 (I-43) Ces relations peuvent également s'écrire :
ε
(
Eexc
)
=
ε bulk + (ε ) + (α ε Eexc ) 2 (I-44) ε (σ exc ) = ε bulk + (ε ) + (α εσ σ ) 2 (I-45) d ( Eexc ) = dbulk + ( d ) + (α 2 d (σ exc ) = dbulk + ( d ) + (α σ σ ) 2 vib E 2 vib exc 2 vib dE Eexc ) 2 vib d (I-46) 2 (I-47) exc
Ces relations correspondent à des lois hyperboliques (Figure I-22) et possèdent deux asymptotes. L'une des asymptotes donne la valeur de la permittivité pour Eexc ou σexc nul. Elle correspond à la somme entre la contribution réversible des parois de domaine et la contribution du réseau. Elle permet de décrire l'évolution de la permittivité dans la zone I. La deuxième asymptote est valable dans la zone II. Elle décrit une variation linéaire de la permittivité et correspond aux lois de Rayleigh données par les équations (I-36) à (I-39) avec εbulk = ε(0) et dbulk = d(0). L'intersection de ses deux asymptotes permet de définir le champ seuil Eth1, correspondant à la limite entre la zone I et II : ε d ε d Eth1 = vib = vib ou σ th1 = vib = vib αε E α dE α εσ (I-48) α dσ Que l'on mesure ε ou d, la valeur de seuil est identique [I-53]. La loi hyperbolique est ainsi une généralisation de la loi de Rayleigh et s'applique à la fois aux matériaux durs et aux matériaux doux. Elle permet en outre de bien fixer la valeur du champ seuil entre les zones I et II ce qui n'était pas chose très aisée auparavant. Ceci présente en particulier l'avantage de diminuer l'erreur faite sur le paramètre α.
VI-3- Evolution des paramètres VI-3-a- Rôle des défauts sur la mobilité des parois
Les défauts présents dans le matériau jouent sur la mobilité des parois de domaine et notamment sur le paramètre α de la loi hyperbolique. Lorsque le matériau possède de nombreux défauts, les parois sont piégées sur les centres d'épinglages et n'effectuent que peu de sauts. Le paramètre α est donc sensible à la densité de défaut. Boser [I-48] a montré par une étude statistique que ce coefficient est inversement proportionnel à la concentration de défaut N : F α∝ D (I-52) LD N FD désigne la surface de la paroi et LD la distance moyenne entre les parois. Ces calculs théoriques ont été repris par de nombreux auteurs notamment pour connaître l'efficacité d'un dopant sur les propriétés ferroélectriques du matériau [I-54] [I-55] [I-56]. Si le dopant permet de « guérir » les défauts présents dans le matériau, alors la pente de la loi hyperbolique sera plus grande car la densité de défauts permettant l'accrochage des parois aura diminué. Au contraire, si le dopant ne permet pas de réduire le nombre de défaut, α diminue. On peut ainsi ajuster la quantité de dopant nécessaire pour améliorer la mobilité des parois de domaine et pour obtenir des propriétés ferroélectriques meilleures. -38- Chapitre I : Généralités VI-3-b- Rôle de la température sur la mobilité des parois
Récemment, Wang et Wang [I-57] ont étudié l'effet de la température sur la contribution irréversible de la permittivité de La0.7 Sr0.3 MnO3 qui est un matériau multiferroïque (Figure I-23). Lorsque la température passe de 110 à 290 K, la pente α de la loi hyperbolique augmente de façon linéaire [I-52] montrant que l'énergie thermique apportée permet une meilleure mobilité des parois de domaine. À partir de ces données expérimentales, le champ de seuil Eth1 est également obtenu [I-52] (Figure I-24). Le champ de seuil suit alors une loi de type Vogel-Fulcher [I-58] [I-59] : ⎡ ⎤
−
U Eth1 = Eth 0 exp ⎢ ⎥ ⎣⎢ kb (T − T f ) ⎦⎥ (I-53) Eth0 c'est le champ seuil à haute température, U l'énergie d'activation et Tf est la température de gèle des parois. Dans l'exemple donné, ils ont obtenus Eth0 = 62,7 kV*cm-1, U = 0,3 meV et Tf = 80 K. Pour Tf, les paramètres réversible et irréversible du mouvement de parois de domaine sont nuls montrant que les parois de domaine restent figées (gel des parois).
8 -1 Champ de seuil Eth1 (kV*cm ) 6 70 250K 170K 290K 210K 110K 7 Loi hyperbolique δε 5 4 3 2 1 0 0 20 40 60 80 100 120 60 50 40 30 20 Données Experimentales Points calculés selon un ajustement linéaire Loi de Vogel-Fulcher 10 0 80 120 160 200 240 280 320 -1 E0 (kV*cm )
Figure I-23 : Evolution de la variation de permittivité en fonction du champ électrique appliqué pour différentes températures de mesure [I-57] [I 52] Figure I-24 : Evolution du champ de seuil en fonction de la température [I-52]
-39- Chapitre I : Généralités VII- Conclusion
Ce premier chapitre nous a permis de faire le point sur l'état des connaissances concernant les ferroélectriques displacifs. Ce sont des matériaux diélectriques présentant des propriétés piézoélectriques, pyroélectriques et ferroélectriques. La description des propriétés de ces matériaux se fait généralement par le biais de la thermodynamique en utilisant l'approche de Landau. Bien que très performante pour décrire ces propriétés, cette approche ne repose sur aucun élément microscopique qui serait à l'origine des comportements observés. Chapitre I : Généralités
Références du chapitre I [I-1] [I-2] [I-3] [I-4] [I-5] [I-6] [I-7] [I-8] [I-9] [I-10] [I-11] [I-12] [I-13] [I-14] [I-15] [I-16] [I-17]
J. Valasek « Piezoelectric and allied phenomena in Rochelle salt » Physical Review 17 (1921) 475–481 M.A. Joly « Sur les combinaisons du niobium et du tantale avec l'azote et le carbone » Bulletin de la Société Chimique 2 (1876) 506-509 G. Busch « Early History of ferroelectricity » Ferroelectrics 74 (1987) 267– 284 W. Kanzig « History of ferroelectricity, 1938–1955 » Ferroelectrics 74 (1987) 285–291 H.D. Megaw « Crystal structure of barium titanate » Nature 155 (1945) 484485 A. von Hippel, R.G. Breckenridge, F.G. Chesley, L. Tisza « High dielectric constant ceramics » Industrial and Engineering Chemistry 38 (1946) 10981109 B. Matthias, A. von Hippel « Structure, electrical, and optical properties of barium titanate » Physical Review 73 (1948) 268–268 B. Matthias, A. von Hippel « Domain structure and dielectric response of barium titanate single crystals » Physical Review 73 (1948) 1378-1384 M.E. Lines, A.M. Glass « Principles and applications of ferroelectrics and related materials » The international series of monographs on physics (1977) Oxford University Press W. Martienssen, H. Warlimont « Springer handbook of condensed matter and materials data » Springer (2005) I. Bunget, M. Popescu « Physics of solid dielectrics » (1984) Elsevier Amsterdam, Oxford, New York, Tokyo E. Fatuzzo, W.J. Merz « Ferroelectricity » Selected topics in solids state physics, vol. VII, (1967) North-Holland publishing company W. Cao, L.E. Cross « Theory of tetragonal twin structures in ferroelectric perovskites with a first-order phase transition Physical Review B 44 (1991) 5-12 W.J. Merz « Domain formation and domain wall motions in ferroelectric BaTiO3 single crystals » Physical Review 95 (1954) 690-698 Y. Xu « Ferroelectric materials and their applications » (1991) NorthHolland publishing company D. Damjanovic « Ferroelectric, dielectric and piezoelectric properties of ferroelectric thin films and ceramics »Reports on Progress in Physics 61 (1998) 1267-1324 E. Fatuzzo « Theoretical considerations on the switching transient in ferroelectrics » Physical Review 127 (1962) 1999-2005 -41- Chapitre I : Généralités [I-18] [I-19] [I-20] [I-21] [I-22] [I-23] [I-24] [I-25] [I-26] [I-27] [I-28] [I-29] [I-30] [I-31] W. Cochran « Crystal stability and the theory of ferroelectricity » Physical Review Letters 3 (1959) 412-414 P. Curie « Sur la symétrie dans les phénomènes physiques, symétrie d'un champ électrique et d'un champ magnétique » Journal de Physique Théorique et Appliquée 3 (1894) 393-415 C. Sun,U. Stimming « Recent anode advances in solid oxide fuel cells » Journal of Power Sources 171 (2007) 247-260 T.D. Spark, P.A. Fuierer, D.R. Clarke « Anisotropic thermal diffusivity and conductivity of La-doped strontium niobate Sr2Nb2O7 » Journal of the American Ceramic Society 93 (2010) 1136-1141 C.H Lu, Y.C. Chen « Sintering and decomposition of ferroelectric layered perovskites: Strontium bismuth tantalate ceramics » Journal of the European Ceramic Society 19 (1999) 2909-2915 C. Borderon, D. Averty, R. Seveno, H.W. Gundel « Influence of the morphology of barium strontium titanate thin films on the ferroelectric and dielectric properties » Integrated Ferroelectrics 93 (2007) 133-140 F. Challali, M. P. Besland, D. Benzeggouta, C. Borderon, M. C. Hugon, S. Salimy, J. C. Saubat, A. Charpentier, D. Averty, A. Goullet, J. P. Landesman, « Investigation of BST thin films deposited by RF magnetron sputtering in pure Argon » Thin Solid Films 518 (2010) 4619-4622 M.S. Pandian, P. Ramasamy; B. Kumar « A comparative study of ferroelectric triglycine sulfate (TGS) crystals grown by conventional slow evaporation and unidirectional method» Materials Research Bulletin 47 (2012) 1587-1597 J. Si, S.B. Desu « Ferroelectric bismuth titanate films by hot wall metalorganic chemical vapor deposition » Journal of Applied Physics 73 (1993) 7910-7913 A.K. Jonscher « Dielectric relaxation in solids » Chelsea Dielectrics Press (1983) B. Hilczer, J. Malecki « Electrets » Elsevier Science (1986) C. Borderon « Développement et étude des matériaux ferro électriques accordables en vue d'une application pour les antennes intelligentes » Thèse de doctorat, Université de Nantes J. Curie, P. Curie « Développement par compression de l'électricité polaire dans les cristaux hémièdres à faces inclinées » Bulletin de minéralogie 3 (1880) 90-93 S.C. Hwang, C.S. Lynch, R.M. McMeeking « Ferroelectric/ferroelastic interactions and a polarization switching model » Acta Metallurgica et Materialia 43 (1995) 2073-2084 -42- Chapitre I : Généralités [I-32] [I-33] [I-34] [I-35] [I-36] [I-37] [I-38] [I-39] [I-40] [I-41] [I-42] [I-43] [I-44] C. Chao, Z. Wang, W. Zhu « Measurement of longitudinal piezoelectric coefficient of lead zirconate titanate thin/thick films using a novel scanning Mach-Zehnder interferometer » Thin solid films 493 (2005) 313-318 Q. Wan, C. Chen, Y.P. Shen « Electromechanical properties of [0 0 1], [0 1 1] and [1 1 1] oriented Pb(Mg1/3Nb2/3)O3–0.32PbTiO3 crystals under uniaxial stress » Materials Research Bulletin 41 (2006) 778–783 D. Guyomar, A. Hajjaji, G. Sebald, K. Yuse « Stress/electrical scaling in ferroelectrics » Journal of Applied Physics 105 (2009) 124103-1-6 D. Zhou, M. Kamlah, D. Munz « Effects of uniaxial prestress on the ferroelectric hysteretic response of soft PZT » Journal of the European Ceramic Society 25 (2005) 425–432 A.F. Devonshire « Theory of barium titanate » Philosophical Magazine 40 (1949) 1040-1063 S.L. Miller, R.D. Nasby, J.R. Schwank, M.S. Rodgers, P.V. Dressendorfer, « Device modeling of ferroelectric capacitors » Journal of Applied Physics 68 (1990) 6463-6471 S.L. Miller, R.D. Nasby, J.R. Schwank, M.S. Rodgers « Modeling ferroelectric capacitor switching with asymmetric nonperiodic input signals and arbitrary initial conditions » Journal of Applied Physics 70 (1991) 28492860 A.T. Bartic, D.J. Wouters, H.E. Maes, J.T. Rickes, R.M. Waser « Preisach model for the simulation of ferroelectric capacitors » Journal of Applied Physics 89 (2001) 3420-3425 F. Preisach « Ûber die magnetische nachwirfung » zeitschrift fûr physik 94 (1935) 277-302 Z. Ye, M.H. Tang, C.P. Cheng, Y.C. Zhou, X.J. Zheng, Z.S. Hu « Simulation of polarization and butterfly hysteresis loops in bismuth layer-structured ferroelectric thin films » Journal of Applied Physics 100 (2006) 094101-1-5 L. Wang, J. Yu, Y. Wang, G. Peng, F. Liu, J. Gao « Modeling ferroelectric capacitors based on the dipole switching theory » Journal of Applied Physics 101 (2007) 104 1-7 F. Yang, M.H. Tang, Y.Z. Zhou, X.J. Zheng, F. Liu, J.X. Liu, J.X. Tang, J.J. Zhang, J. Zhang « A model for the polarization hysteresis loops of the perovskite-type ferroelectric thin films » Applied PhysicsLetters 91 (2007) 142902-1-3 A.K. Tagantsev, I. Stolichnov, N. Setter, J.S. Cross, M. Tsukada « NonKolmogorov-Avrami switching kinetics in ferroelectric thin films » Physical Review B 66 (2002) 214109-1-6 -43- Chapitre I : Généralités [I-45] [I-46] [I-47] [I-48] [I-49] [I-50] [I-51] [I-52] [I-53] [I-54] [I-55] [I-56] [I-57] J.Y. Jo, H.S. Han, J.-G. Yoon, T.K. Song, S.-H. Kim, T.W. Noh « Domain Switching Kinetics in Disordered Ferroelectric Thin Films » Physical Review Letters 99 (2007) 267602-1-4 Lord Rayleigh « Notes on electricity and magnetism: on the behavior of iron and steel under the operation of magnetic forces » Philosophical Magazine 23 (1887) 225-245 L. Neel « Théorie des lois d'aimantation de Lord Rayleigh. I- Les déplacements d'une paroi isolée » Cahier de Physique 12 (1942) 1-12 O. Boser « Statistical theory of hysteresis in ferroelectric materials » Journal of Applied Physics 62 (1987) 1344-1348 N.B. Gharb, S. Trolier-McKinstry « Dielectric nonlinearity of Pb(Yb1/2Nb1/2)O3–PbTiO3 thin films with {100} and {111} crystallographic orientation » Journal of Applied Physics 97 (2005) 64106-1-7 S. Trolier-McKinstry, N.B. Gharb, D. Damjanovic « Piezoelectric nonlinearity due to motion of 180° domain walls in ferroelectric materials at subcoercive fields: A dynamic poling model » Applied Physics Letters 88 (2006) 202901-1-3 M. Morozov, D. Damjanovic, N. Setter « The nonlinearity and subswitching hysteresis in hard and soft PZT » Journal of the European Ceramic Society 25 (2005) 2483-2486 C. Borderon, R. Renoud, M. Ragheb, H.W. Gundel « Description of the low field nonlinear dielectric properties of ferroelectric and multiferroic materials » Applied Physics Letters 98 (2011) 112903-1-3 Q.M. Zhang, W.Y. Pan, S.J. Jang, L.E. Cross « Domain wall excitations and their contributions to the weak-signal response of doped lead zirconate titanate ceramics » Journal of Applied Physics 64 (1988) 6445-6451 J.H. Ma, X.J. Meng, J.L. Sun, T.Lin, F.W. Shi, G.S. Wang, J.H. Chu « Effect of excess Pb on crystallinity and ferroelectric properties of PZT(40/60) films on LaNiO3 coated Si substrates by MOD technique », Applied Surface Science 240 (2005) 275-279 J.E. Garcia, R. Perez, A. Albareda, J.A. Eiras « Non-linear dielectric and piezoelectric response in undoped and Nb5+ or Fe3+ doped PZT ceramic system » Journal of the European Ceramic Society 27 (2007) 29-4032 S. Iakovlev, C.H. Solterbeck, M. Es-Souni « Doping and thickness effects on dielectric properties and subswitching behavior of lead titanate thin films » Applied Physics Letters 81 (2002) 1854-1856 Y. Wang, J. Wang « Temperature-dependent electrical behavior of La0.7Sr0.3MnO3-buffered Bi0.9La0.1FeO3 thin films » Journal of Applied Physics 106 (2009) 094106-1-5 -44- Chapitre I : Généralités [I-58] [I-59] E. Nakamura, K. Kuramoto, K. Deguchi, K. Hayashi « Mechanism of domain freezing in KDP type ferroelectrics » Ferroelectrics 98 (1989) 51-57 O. Hudák, I. Rychetsky « Dielectric response of the domain wall structure in KH2PO4-type crystals below "freezing" temperature » Ferroelectrics 176 (1996) 115-23
-45- Chapitre I : Généralités -46- Chapitre II : Propriétés statiques du réseau cristallin Chapitre II Propriétés statiques du réseau cristallin - 47 - Chapitre II : Propriétés statiques du réseau cristallin - 48 - Chapitre II : Propriétés statiques du réseau cristallin Index du chapitre II Propriétés statiques du réseau cristallin
I- Introduction : 51 II- Hypothèses de travail 52 II-1- Lien déformation - polarisation 52 II-2- Phase cubique de référence 52 III- Énergie libre 53 III-1- Contribution à l'énergie libre mécanique 55 III-1-aIII-1-b- III-2- Énergie libre élastique 55 Énergie libre thermoélastique 56 Contributions de la polarisation à l'énergie libre 57 III-2-aIII-2-b- Énergie libre de polarisation 57 Énergie libre pyroélectrique 57 III-3- Couplage électrostrictif 57 III-4- Contribution thermique à l'énergie libre 58 III-5- Termes d'ordre supérieur 58 III-6- Energie libre et développement de Landau 58 III-7- Tenseurs et symétries 59 III-7-aIII-7-bIII-7-c- III-8- IV- Tenseurs de rang 2 59 Tenseurs de rang 4 59 Tenseurs de rang 6 61 Energie libre en symétrie cubique 61 Données expérimentales 63 IV-1- Changements de phase 63 IV-2- Polarisation, déformation, paramètres de maille 64 IV-3- Permittivité, coefficient piézoélectrique 66 IV-3-aIV-3-b- IV-4- Coefficients élastiques et électrostrictifs 67 IV-4-aIV-4-bIV-4-c- IV-5- VV-1- Permittivité 66 Coefficient piézoélectrique 67 Constantes élastiques C 67 Coefficients d'électrostriction q et Q 68 Coefficients A 68 À propos des données expérimentales 69 Étude en l'absence de contrainte appliquée 70 Équilibres mécanique et de la polarisation 70
- 49 - Chapitre II :
s statiques du lin V-1-aV-1-bV-1-cV-1-dV-1-e- V-2- Confrontation à l'expérience 81 V-2-aV-2-bV-2-cV-2-dV-2-eV-2-f- VI- Équilibre mécanique 70 Équilibre de la polarisation 72 Expression de la polarisation 73 Expression de l'entropie et chaleur spécifique 77 Paramètres de mailles 78 Coefficient de dilatation thermique 82 Coefficient thermoélectrique 83 Polarisation et coefficients de rigidité diélectrique 84 Température de transition 85 Chaleur spécifique et coefficients élastiques 86 Déformations et coefficients électrostrictifs 86 Étude en présence d'un champ électrique appliqué 89 VI-1- Polarisation 89 VI-2- Imperméabilité et permittivité 91 VI-3- Température de Curie 94 VII- Étude en présence d'une contrainte appliquée 96 VII-1- Équilibre mécanique 96 VII-2- Équilibre de la polarisation 97 VII-3- Propriétés du matériau en champ nul 97 VII-3-aVII-3-b- VII-4- Contrainte introduite par un substrat 101 VII-4-aVII-4-bVII-4-c- VIII- Température de transition 98 Coefficient piézoélectrique 99 Contraintes liées à la présence d'une interface 101 Polarisation en fonction de l'épaisseur 104 Choix du substrat 105 Conclusion
106 Références du chapitre II 107 - 50
- Chapitre II : Propriétés statiques du réseau cristallin
I
-
Introduction : Les propriétés statiques d'un réseau cristallin d'un matériau ferroélectrique sont généralement abordées en recherchant les fonctions d'état énergie libre F et enthalpie libre G en fonction des sollicitations appliquées, température T, champ E ou contrainte σ. Cette recherche n'est pas simple et l'on a coutume d'utiliser l'approche de Landau pour décrire les changements de phase depuis que Devonshire en a proposé et exploité l'idée entre 1949 et 1954 [II-1 – II-3]. Les matériaux ferroélectriques présentent en effet une transition de phase avec une phase polaire à basse température et une phase non polaire au dessus d'une température critique. Le paramètre d'ordre de cette transition est alors la réponse à la sollicitation appliquée (la polarisation P ou la déformation e). L'intérêt de l'enthalpie libre réside dans le fait que cette fonction reste continue lors de la transition au contraire des autres fonctions d'état (énergie interne, enthalpie, énergie libre). En l'absence de connaissances concrètes sur le système à décrire, la méthode consiste ainsi à effectuer un développement de G autour de la transition en fonction du paramètre d'ordre en espérant une convergence de la série. Par le jeu des dérivées partielles de G, on peut atteindre la plupart des propriétés physiques recherchées. La méthode est très largement utilisée et il serait illusoire de dresser ici une bibliographie exhaustive sur le sujet. On peut citer quelques ouvrages (Fatuzzo et Merz, Lines et Glass, Jona et Shirane, Burfoot et Taylor [II-4 – II-7]) et quelques articles importants (Bell, Cross ou Wang [II-8 – II-11]). Plusieurs problèmes se posent quant à l'utilisation de cette méthode. Le premier est de savoir jusqu'à quel ordre il est nécessaire de pousser les développements. On peut reformuler cette question en se demandant sur quel écart de température par rapport à la température de transition le développement reste valable. On observe également qu'il est nécessaire d'introduire « à la main » les propriétés physiques que 'on observe dans les termes du développement. Par exemple, l'approche ne permet pas de retrouver la loi du Curie-Weiss, à moins de l'introduire explicitement dans les coefficients du développement. En résumé, il manque des informations fondamentales sur le système à étudier pour pouvoir utiliser pleinement la théorie de Landau. Nous nous proposons de chercher à combler ce vide pour les matériaux ferroélectriques displacifs. Pour cela, nous allons mettre en lumière et exploiter la relation qui existe entre la déformation et la polarisation pour ce type de matériau. Il devient ainsi possible d'exprimer l'énergie libre que l'on ait ou non une contrainte externe appliquée (champ électrique, contrainte mécanique). 51 Chapitre II : Propriétés du au cristallin II- Hypothèses de travail II-1- Lien déformation - polarisation
Les ferroélectriques displacifs cristallisent dans des structures de mailles non centrosymétriques pour des températures inférieures à la température de Curie TC0 laissant la possibilité à un moment dipolaire permanent d'exister. Ces matériaux présentent alors une ou plusieurs phases polaires. Dans la phase non polaire, lorsque la température est supérieure à TC0, la maille est centrosymétrique (généralement cubique) et aucun moment dipolaire permanent ne peut subsister. Ainsi, le moment dipolaire attaché à cette maille est dû à la déformation du motif de la maille, cette dernière ne restant pas à la symétrie cubique. Plus encore, l'expérience montre que plus la déformation de la maille est importante, plus le moment dipolaire associé à la maille est intense [II-4 – II-7]. Il existe donc, pour les ferroélectriques displacifs, une relation entre la déformation par rapport à la maille cubique de référence e et la polarisation P. Ce point est important car il nous permet d'associer à toute énergie libre mécanique une énergie libre de polarisation. II-2- Phase cubique de référence
Dans un ferroélectrique displacif, si la phase non polaire est généralement cubique, elle peut exceptionnellement être hexagonale comme dans le cas de BaTiO3 lorsque l'on a T > 1460 °C. On n'envisagera pas ce dernier cas ici. En phase polaire, on rencontre principalement des structures tétragonales, bien qu'un matériau puisse adopter plusieurs phases en fonction de la température. Dans le cas de BaTiO3 et de KNbO3, on a la présence des structures tétragonale, orthorhombique et rhomboédrique. L'expérience montre toutefois que la(es) phase(s) polaire(s) correspond(ent) à une structure plutôt quasi-cubique tant les écarts à la symétrie cubique (arêtes et angles) sont faibles (moins de 1 %) [II-4 – II-7]. Dans ce qui suit, nous prendrons la phase non polaire, cubique, comme phase de référence y compris pour toutes les phases polaires. Ceci signifie en particulier que les tenseurs d'ordre 4 décrivant les propriétés du matériau ne possèderaient alors au plus que trois composantes indépendantes (et même seulement deux pour la seule polarisation). Par ailleurs, la maille de référence étant centrosymétrique, les seuls termes d'énergie libre fonction de la polarisation existant sont ceux faisant intervenir le produit tensoriel P ⊗ P (ou une puissance entière de ce produit). Compte tenu de ce qui précède, un terme d'énergie libre faisant intervenir une déformation e aura un terme analogue faisant intervenir le produit dyadique des polarisation P⊗P. - 52 - Chapitre II : Propriétés statiques du réseau cristallin III- Énergie libre
Pour obtenir une description thermodynamique d'un ferroélectrique displacif, il convient d'écrire les différentes énergies libres. L'énergie libre est a priori une fonction de la température T et des deux variables internes additives déformation e et polarisation P. Outre les termes purement thermique, purement élastique et de pure polarisation, nous prenons en considération des termes de couplage entre les différentes grandeurs, couplages thermoélastique, pyroélectrique (thermoélectrique) et enfin électrostrictif (déformation élastique due à la variation de la polarisation), ce qui est rarement envisagé dans la littérature. L'énergie libre s'obtient par rapport à un état de référence qu'il convient de préciser. Il est logique de choisir un état où la polarisation est nulle. N'importe quel point de la phase paraélectrique peut convenir. Cependant, la polarisation est également nulle en phase polaire pour une température T0. Pour une transition du 2ième ordre, T0 correspond à la température de Curie TC0 alors qu'elle est supérieure à TC0 pour une transition du 1er ordre. Ainsi, lorsque l'on chauffe le matériau, la transition de phase se produit avant que la polarisation ne devienne nulle. Nous préciserons plus tard la relation existant entre T0 et la température de Curie TC0. Dans cet état de référence, on suppose que la déformation e de la maille est nulle. Ainsi, les effets thermiques, dont la dilatation du matériau, conduisent à une déformation positive lorsque T > T0 et à une déformation négative dans le cas contraire. De même, on prendra l'état de référence non contraint et on aura donc une contrainte nulle (équilibre mécanique). Dans tout ce qui suit, nous considérons des grandeurs par unité de . La variation d'énergie interne dU du système s'écrit (transformation réversible) : dU = δ Q + δ W = TdS + δ W (II-1) δQ et δW représentent respectivement la chaleur et le travail reçus par le système, T sa température et dS la variation d'entropie. Puisque la relation entre l'énergie libre F et l'énergie interne U est donnée par F = U – TS, la variation d'énergie interne s'écrit : dF = − SdT + δ W (II-2) Ainsi, hormis le terme lié à l'entropie, la variation d'énergie libre apparaît toujours comme le travail reçu. Dans ce qui suit, nous chercherons donc à établir l'expression du travail élémentaire échangé au cours d'une transformation réversible. - Chapitre II : Propriétés statiques du réseau cristallin
Ceci conduit à : ⎛ ∂F ⎞
⎛ ∂F ⎞ ⎛ ∂F ⎞ S = −⎜ ⎟ ; E =⎜ ⎟ ; σ =⎜ ⎟ ⎝ ∂T ⎠ P,e ⎝ ∂P ⎠T,e
⎝
∂e ⎠T, P (II-5) On peut également introduire l'enthalpie H telle que H = U − P ⋅ E − e : σ. Ainsi : dH = TdS − P ⋅ dE − e : dσ L'enthalpie libre G se déduit de H par la relation G = H – TS, d'où : (II-6) dG = − SdT − P ⋅ dE − e : dσ (II-7) ⎛ ∂G ⎞ ⎛ ∂G ⎞ ⎛ ∂G ⎞ S = −⎜ ⎟ ; P = −⎜ ⎟ ; e = −⎜ ⎟ ⎝ ∂T ⎠ E,σ ⎝ ∂E ⎠T,σ ⎝ ∂σ ⎠T, E (II-8) Et on a alors : Comme vu au chapitre I, on peut introduire des coefficients caractéristiques. Ainsi, si l'on exprime S, P et e en fonction de T, E et σ, il vient : dS = C dT + p ⋅ dE + α : dσ T dP = pdT + χ ⋅ dE + d : dσ (II-9) de = α dT + d ⋅ dE + s : dσ C est la capacité calorifique, p le vecteur pyroélectrique, α le tenseur de dilatation thermique, χ le tenseur de susceptibilité diélectrique, d le tenseur piézoélectrique et s le tenseur des complaisances élastiques (ou des souplesses). On peut également exprimer E et σ en fonction de T, P et e , il vient
:
dE = tdT + η ⋅ dP + h : de dσ = β dT + h ⋅ dP + C : de (II-10)
Dans cette expression, il apparaît le vecteur d'effet électro-calorique t, η le tenseur de l'imperméabilité électrique, h le tenseur piézoélectrique inverse, β le tenseur des contraintes thermiques et C le tenseur des constantes élastiques (ou des rigidités). Nous avons vu précédemment que, pour un matériau à l'état de référence centrosymétrique, l'énergie libre dépend des variables température T, polarisation P ⊗ P et déformation e. De façon très générale, elle peut s'exprimer au moyen d'un développement en fonction de ces variables. III-1- Contribution à l'énergie libre mécanique
On se place tout d'abord dans le cas où le champ électrique E est nul. Les effets observés sont ainsi mécaniques, avec toutefois un couplage thermomécanique possible. Nous allons examiner tour à tour le cas d'une température T constante (énergie élastique pure) et celui où cette dernière grandeur varie (énergie thermoélastique).
III-1-a- Énergie libre élastique
Nous sommes dans le cas où T = T0 et E = 0. La déformation e ne dépend que de la contrainte σ et l'on a que des effets élastiques purs. On écrit donc : ⎛ ∂e ⎞ de = ⎜ ⎟ : dσ = s : dσ ⎝ ∂σ ⎠T, E (II-12) Nous avons utilisé la relation (II-9) pour la dérivée partielle. De même, on peut écrire : ⎛ ∂σ ⎞ dσ = ⎜ ⎟ : de = C : de ⎝ ∂e ⎠T, P (II-13) Cette fois, c'est la relation (II-10) qui permet d'exprimer la dérivée partielle. Remarquons que si le champ appliqué E est nul, alors la polarisation P peut être nulle, ce que nous supposerons ici. Ainsi, avec E = 0 et P = 0, il vient entre les tenseurs s et C : s −1 = C Lorsque les contraintes sont faibles, le milieu reste linéaire. Il vient : (II-14) e = s :σ (II-15) σ = C:e Pour obtenir l'énergie libre d'un solide élastique, on recherche le travail mécanique élémentaire. Celui-ci est donné par : (II-16) δ W = σ : de σ est donné par la relation (II-15). Le travail élémentaire prend la forme : δ
: (II
Chapitre II : Propriétés statiques du réseau cristallin
Par intégration, on obtient l'énergie libre élastique [II-12 – II-13] : Félastique = 1 e :C :e 2 (II-18) III-1-b- Énergie libre thermoélastique On suppose désormais que la température peut varier. Le matériau se déforme ainsi sous l'action de cette modification de la température (effet thermoélastique). La déformation est désormais fonction de σ et de T. Ainsi :
⎛ ∂e ⎞ ⎛ ∂e ⎞ de = ⎜ dT + ⎜ ⎟ ⎟ : dσ = α dT + s : dσ ⎝ ∂T ⎠σ, E ⎝ ∂σ ⎠T, E
(
II
-19) Les dérivées partielles sont obtenues à partir de (II-9). À partir de l'expression (II-16) du travail élémentaire et en utilisant l'expression de σ de (II-24), on obtient [II-14] : δ W = (T −
T
0 ) β : de (
II
-25) L'énergie libre correspondante s'obtient par intégration : Fthermoélastique =
(T − T0
)
β
:
e - 56 - (II-
26)
Chapitre II : Propriétés statiques du réseau cristallin
Il est également possible d'écrire cette contribution à l'énergie libre sous la forme [II-14] : Fthermoélastique = − (T − T0 ) α : C : e = − (T − T0 ) α : σ (II-27)
III-2- Contributions de la polarisation à l'énergie libre
Nous examinons maintenant le cas où la contrainte mécanique σ est nulle. Comme précédemment, nous abordons tout d'abord les termes de polarisation purs (température T constante) pour ensuite examiner le cas du couplage avec la température.
III-2-a- Énergie libre de polarisation
Nous introduisons l'énergie libre due à la polarisation propre du ferroélectrique et qui correspond à σ = 0 et T = T0. Conformément aux hypothèses faites dans le paragraphe II-, on a, par analogie avec l'expression (II-18) de l'énergie libre élastique : Fpolarisation = 1 (P ⊗ P): A :(P ⊗ P) 2 (II-28) Le tenseur A est le tenseur de rigidité diélectrique. C'est un tenseur totalement symétrique relativement à l'échange de ses indices (donc à deux paramètres indépendants pour un matériau cubique).
III-2-b- Énergie libre pyroélectrique
Nous introduisons également un terme de couplage thermo-électrique (terme pyroélectrique) qui, par analogie avec le terme thermoélastique (II-26) s'écrit : Fpyroélectrique
(T − T0 ) a : ( P ⊗ P ) (II-29)
Le tenseur a sera donné par a = a I avec a est un scalaire et I est la matrice unité
. III-3- Couplage électrostrictif
Si la température T = T0, il est possible d'avoir un couplage électro-mécanique. La déformation qui s'exerce sur le solide élastique est due à la polarisation. En supposant toujours les hypothèses faites dans le paragraphe II, il vient [II-15] : σ = q :(P ⊗ P) (II-30) q est le tenseur électrostrictif. Le travail élémentaire (II-16) s'écrit ainsi : δ W = ( P ⊗ P ) : q : de (II-31) Par intégration, il vient la densité d'énergie libre électrostrictive [II-13] : Félectrostritive = ( P ⊗ P ) : q : e - 57 - (II-32)
Chapitre II : Propriétés statiques du réseau cristallin III-4- Contribution thermique à l'énergie libre
Pour terminer, on suppose que E = 0 et σ = 0. La contribution à l'entropie dépend uniquement de la température (Eq. (II-9)) et : ⎛ ∂S ⎜ ⎝ ∂T ⎞ C ⎟= ⎠ T (II-33) On a de plus, selon (II-2) : ⎛ ∂F ⎞ ⎜ ⎟ = −S ⎝ ∂T ⎠ En supposant que la capacité calorifique soit constante, on obtient : Fthermique = CT ⎡⎣1 − ln (T ) ⎤⎦ + C te (II-34) (II-35) Si l'état de référence est pris à la température T0, il vient : Fthermique = −C (T ln T − T0 ln T0 ) + C (T − T0 ) (II-36) Si l'on a T ≈ T0, alors TlnT - T0lnT0 ≈ log T0 (T – T0) ≈ 0, et il vient : Fthermique = C (T − T0
(II-37) III-5- Termes d'ordre supérieur
Dans le cas des ferroélectriques displacifs, il a été montré que des termes d'énergie libre d'ordre supérieur sont nécessaires pour décrire correctement le comportement du matériau. E. Defaÿ [II-16] indique que, dans le cas des pérovskites, les termes d'ordre élevé faisant intervenir la polarisation sont prépondérants sur tous les autres. Cette prépondérance n'est cependant pas systématique pour d'autres matériaux. Par exemple pour AlN, les termes d'ordre supérieur contribuent à l'énergie libre de façon assez homogène et il serait nécessaire pour ce matériau de tenir compte des termes mécaniques, thermiques et des différents couplages possibles. III-6- Energie libre et développement de Landau
L'expression complète de l'énergie libre s'écrit :
1 1 F (T, P, e ) = e : C : e + ( P ⊗ P ) : A : ( P ⊗ P ) + ( P ⊗ P ) : q : e + 2 2 1 + (T − T0 ) β : e + (T − T0 ) a : ( P ⊗ P ) + C (T − T0 ) + B ( P ⊗6 ) 3 - 58 - (II-39)
Chapitre II : Propriétés statiques du réseau cristallin
Remarquons que cette expression est tout à fait similaire à la forme postulée par Landau et Devonshire. On a en effet dans ce cas :
F (T, P, e ) = F0 + γ 2 : ( P ⊗ P ) + ( P ⊗ P ) : γ 4 : ( P ⊗ P ) + + γ 6 ( P ⊗6 ) + (II-40) On a
la
correspondance suivant
e
: 1 F0 = C (T − T0 ) + β (T − T0 ) I : e + e : C : e 2 γ 2 = q : e + a (T − T0 ) I γ4 = 1 A 2 (II-41) 1 3 γ6 = B
Généralement, on considère que le terme γ 2 dépend de la température, ce qui est bien le cas ici. III-7- Tenseurs et symétries
Il existe deux types de symétries dans les problèmes que nous traitons : - les symétries internes aux tenseurs utilisés (symétriques, antisymétriques ), - la symétrie externe lié au matériau lui-même et qui est ici cubique. Ces différentes symétries font que le nombre de composantes indépendantes des tenseurs utilisés est réduit. Nous allons dans ce qui suit examiner ces propriétés.
III-7-a- Tenseurs de rang 2
L'expression (II-39) fait apparaître le tenseur des déformations e qui est symétrique afin que l'équilibre mécanique du matériau puisse être conservé. Il lui est associé le tenseur des contraintes σ qui, par définition, est lui aussi symétrique. L'expression de l'énergie libre fait également apparaître le tenseur ( P ⊗ P ) qui par construction est symétrique. Si le matériau présente la symétrie cubique comme supposé ici, les tenseurs de rang 2 β et α sont nécessairement à symétrie sphérique et s'expriment par α = α I et β = β I ( I matrice unité). De même, nous avons vu que le tenseur a s'écrivait également a = a I.
III-7-b- Tenseurs de rang 4
La symétrie des tenseurs σ et e entraine celle des tenseurs s et C comme l'indique la relation (II-15) par exemple. Le tenseurs électrostrictif q apparait lui aussi comme symétrique.
- 59 - Chapitre II : Propriétés statiques du réseau cristallin
Si l'on prend l'exemple du tenseur s (on pourrait utiliser un des autres tenseurs de rang 4), on peut écrire les égalités suivantes entre composantes [II-12] : sijkl = sijlk = s jikl = s jilk (II-42) Les indices i, j, k et l peuvent prendre les valeurs de 1 à 3. antes d'un tenseur d'ordre 4, 36 seulement sont ainsi indépendantes. En effet, sur les 9 couples possibles de valeurs (ij) (ou (kl)), il y en a 3 de type (i = j) et 6 de type (i ≠ j). Puisque (ij) = (ji), il reste seulement 3 couples indépendants de type (i ≠ j), soit finalement 6 couples (ij) indépendants. Ainsi, on a bien 6×6 = 36 combinaison (ijkl) indépendantes. Notons qu'il devient possible de représenter les composantes du tenseur d'ordre 4 sous une forme contractée à l'aide d'une matrice 6×6. - Chapitre II : Propriétés statiques du réseau cristallin
Notons que la notation contractée s'applique également aux tenseurs de rang 2. Par exemple, le tenseur σ peut être représenté par une colonne de composantes σ1 à σ6. L'avantage de la notation contractée de Voigt réside dans la diminution du nombre de dimension pour représenter les tenseurs de rang élevé. De part sa construction, elle peut s'appliquer à concurrence de la notation normale dans les problèmes mettant en jeu des tenseurs de rang 4.
III-7-c- Tenseurs de rang 6
L'expression (II-39) de l'énergie libre fait apparaître le tenseur de rang 6 B comportant 729 composantes. Comme dans le cas des tenseurs de rang 4, les symétries font diminuer le nombre de composantes indépendantes. En appliquant ce processus sur le tenseur B, on trouve que seules 5 composantes sont indépendantes : B111, B112, B123, B144 et B244. III-8- Energie libre en symétrie cubique
Nous allons chercher à expliciter l'énergie libre lorsque la symétrie est cubique. Le terme lié au tenseur de rang 6 s'écrit :
F = B111 ( Px6 + Py6 + Pz6 ) + ( 3B112 + 4 B224 ) ⎡⎣ Px4 ( Py2 + Pz2 ) + + Py4 ( Px2 + Pz2 ) + Pz4 ( Px2 + Py2 ) ⎤⎦ + 6 ( B123 + 2 B144 ) Px2 Py2 Pz2 = B1 ( Px6 + Py6 + Pz6 ) + B2 ⎡⎣ Px4 ( Py2 + Pz2 ) + (II-46) + Py4 ( Px2 + Pz2 ) + Pz4 ( Px2 + Py2 ) ⎤⎦ + B3 Px2 Py2 Pz2
Comme il est impossible de distinguer, sans faire d'hypothèse supplémentaire, les coefficients B112 et B224, tout comme B123 et B144, nous avons noté simplement cette contribution à l'énergie libre à l'aide des trois coefficients B1, B2 et B3. En exprimant les termes liés aux tenseurs de rang 4, on obtient :
C C 2 F = 11 ⎣⎡ exx2 + e yy + ezz2 ⎤⎦ + C12 ⎡⎣ exx eyy + exx ezz + eyy ezz ⎤⎦ + 44 ⎡⎣ exy2 + exz2 + eyz2 ⎤⎦ + 2 2 A A ⎞ ⎛ + 11 ⎣⎡ Px4 + Py4 + Pz4 ⎦⎤ + ⎜ A12 + 44 ⎟ ⎣⎡ Px2 Py2 + Px2 Pz2 + Py2 Pz2 ⎦⎤ + (II-47) 2 2 ⎠ ⎝ + q11 ⎡⎣ exx Px2 + eyy Py2 + ezz Pz2 ⎤⎦ + q12 ⎡⎣( e yy + ez ) Px2 + ( exx + ezz ) Py2 + ( exx + eyy ) Pz2 ⎤⎦ + q44 ⎡⎣exy Px Py + exz Px Pz + eyz Py Pz ⎤⎦
Notons que
comme
, dans le cas du tenseur d'
ordre 6,
il
est impossible de
distinguer
sans
hypoth
èse
sup
plémentaire,
les termes A12
et
A
44. Dans la suite, nous
considéron
s
le terme A12 + A
44
/2 comme un seul et unique coefficient. Enfin pour les termes avec des tenseurs d'ordre 2 et pour le terme scalaire, il vient :
F
= (T − T0 ) ⎡⎣ a ( Px2 + Py2 + Pz2 ) + β ( exx + eyy + ezz ) + C ⎤⎦ - 61 - (II-48)
Chapitre II : Propriétés statiques du réseau cristallin
Pour cela, nous avons exprimé les relations α = − β I : s : I et β = −α I : C : I entre α et β : α = − β ( s11 + 2s12 ) β = −α ( C11 + 2C12 ) (II-49) On peut remarquer que l'on a toujours α > 0, la dilatation thermique conduisant à des déformations plus importante lorsque la température augmente (Eq. (II-24)). Par contre, on aura toujours β < 0. Au final, l'expression de l'énergie libre est donnée par : F = B1 ( Px6
+ Py6 + Pz6
)
+ B2 ⎡⎣ Px4 ( Py2 + Pz2 ) + Py4 ( Px2 + Pz2 ) + Pz4 ( Px2 + Py2 ) ⎤⎦ + B3 Px2 Py2 Pz2 C11 2 C 2 ⎡⎣exx + eyy + ezz2 ⎤⎦ + C12 ⎡⎣exx e yy + exx ezz + eyy ezz ⎤⎦ + 44 ⎡⎣ exy2 + exz2 + eyz2 ⎤⎦ + 2 2 A A ⎞ ⎛ + 11 ⎣⎡ Px4 + Py4 + Pz4 ⎦⎤ + ⎜ A12 + 44 ⎟ ⎣⎡ Px2 Py2 + Px2 Pz2 + Py2 Pz2 ⎦⎤ + 2 2 ⎠ ⎝ + (II-50) + q11 ⎡⎣ exx Px2 + eyy Py2 + ezz Pz2 ⎤⎦ + q12 ⎡⎣( e yy + ezz ) Px2 + ( exx + ezz ) Py2 + ( exx + eyy ) Pz2 ⎤⎦ + q44 ⎣⎡exy Px Py + exz Px Pz + eyz Py Pz ⎦⎤ + (T − T0 ) ⎡⎣ a ( Px2 + Py2 + Pz2 ) + β ( exx + eyy + ezz ) + C ⎤⎦
L'énergie libre F dépend de très peu de paramètres. Outre les scalaires a, β et C, il apparaît les composantes des tenseurs d'ordre 4 ( C, A et q ), soit les facteurs C11, C12, C44, A11, (A12 + A44/2), q11, q12 et q44. Un tel terme est bien évidemment absent de l'expression (II-39) que nous avons proposée. Ainsi, T0 est la température pour laquelle, même pour la phase polaire, P = 0. Ceci revient à dire que non seulement nous avons la ∂F ∂F relation =0. = E = 0, mais de façon plus contraignante ∂P ∂(P ⊗ P)
- Chapitre II : Propriétés statiques du réseau cristallin IV- Données expérimentales
BaTiO3 compte parmi les ferroélectriques displacifs les plus étudiés. Pourtant, assez curieusement, il existe assez peu de données expérimentales obtenues à partir des monocristaux dont une bonne partie a été réalisée dans les décennies 40, 50 et 60. Dans la plupart des cas, on ignore les détails des expériences et les caractéristiques des cristaux utilisés, notamment celles concernant leurs défauts. En outre, chaque auteur a utilisé sur une méthode de mesure particulière. Ainsi, les données expérimentales disponibles ne présentent aucune cohérence entre elles et il est bien difficile de tirer des informations homogènes sur le matériau. Nous nous somme également intéressé à KNbO3 car il présente de nombreuses similitudes avec BaTiO3, notamment sur le nombre de transitions de phases. Cependant, les données existantes à son sujet sont encore plus rares que dans le cas de BaTiO3. Dans les deux cas, les mesures récentes portent sur des échantillons polycristallins. Nous allons ici faire état des données expérimentales disponibles et tenter d'en tirer des informations sur les coefficients des matrices C et q. IV-1- Changements de phase
BaTiO3 et KNbO3 cristallisent tous les deux en phase rhomboédrique, orthorhombique, tétragonale et cubique selon la température. Il semble admis actuellement que le passage d'une phase à l'autre soit une transition du premier ordre. Cela implique le dégagement ou l'absorption d'une chaleur latente L à la transition. Les températures de transition ne font pas l'unanimité. La littérature récente sur le sujet s'accorde sur certaines valeurs portées sur le Tableau II-1. Nous avons retenu pour cela les articles récents de Li et co. [II-9] pour BaTiO3 et de Liang et co. [II-17] pour KNbO3. Cependant, les mesures plus anciennes peuvent s'en écarter notablement. Pour BaTiO3, Merz annonce 120°C [II-18] puis 107°C [II-19] pour la température de transition cubique – tétragonale (mesure de polarisation et de permittivité). Matthias et von Hippel [II-20] indiquent eux aussi 120°C, tout comme Megaw [II-21] et Kay [II-22] par mesure des paramètres de maille. Cependant, les données de Megaw montrent une phase cubique à partir d'environ 110 °C. Chynoweth [II-23] voit la transition à 107 °C (courant pyroelectrique). Pour les autres transitions, Merz annonce -5 °C et -85 °C [II-24] et Vieder [II-25] indique les valeurs de -5 °C et -92 °C (polarisation). Rhodes [II-26] reporte les valeurs de 0 °C et -90 °C tandis que Kay [II-22] et Kay et Vousden [II-27] relèvent -5 °C et -90 °C (paramètres de maille). Wemple et co. [II-28] indiquent une phase tétragonale stable entre 2 °C et 120 C et 6 °C et 130 °C selon le mode de croissance du cristal. Des cristaux acquis par le laboratoire2 sont annoncés avec une phase tétragonale allant de 9 °C à 130,5 °C. - 63 - Chapitre II : Propriétés statiques du réseau cristallin
Pour KNbO3, Liang et co. reprennent les résultats de Matthias et Remeika. [II-298] (Tableau II-1). Triebwasser [II-30] indique une transition à 418 ± 5 °C puis une autre à environ 200 °C (polarisation). Il n'a cependant pas atteint une température suffisamment basse pour observer la dernière. Günter [II-31] donne égaement 418 °C et 200 °C pour ces transitions. TCubique → Tétragonale BaTiO3 KNbO3 TTétragonale → Orthorhombique TOrthorhombique → Rhomboédrique 125 °C 8 °C 435 °C 225
°C
Tableau II-1 : Températures de transition de phase de BaTiO3 selon Li et co. [II-9] et de KNbO3 selon Liang et co. [II-17] -71
°C
-50
°C
Une première analyse fait ressortir deux groupes de valeurs pour BaTiO3. Dans le premier, la transition tétragonale – cubique est située à 107 °C tandis qu'elle l'est à 120 °C dans le second. Les autres transitions semblent se situer à -5 °C et -90 °C. La présence de défauts en densité et espèces différentes explique sans doute les différences observées. Remarquons également que les données récentes de Li se situent assez loin des mesures plus anciennes. Cependant, les échantillons achetés récemment montrent que les valeurs mesurées par Li ne sont pas complètement singulières. Burfoot et Taylor [II-7] indiquent dans leur livre que la température de Curie est d'autant plus élevée que la concentration en défauts de l'échantillon est faible. Ils ne donnent par contre a détail ni référence sur le sujet. Pour KNbO3, Shirane [II-32] indique 409 °C pour la transition cubique – tétragonale et environ 212 °C pour le passage tétragonale – orthorhombique (paramètre de maille). Il n'a pas observé la transition la plus basse. De son côté, Triebwasser [II-30] obtient pour ces transitions 422 °C et environ 180 °C. Ainsi, on peut faire le même constat sur KNbO3 que sur BaTiO3. À chaque transition de phase, on peut mesurer la chaleur ΔQ dégagée/absorbée. Celleci représente alors la chaleur latente L. Les données concernant BaTiO3 ont été regroupées par Jona et Shirane dans leur livre [II-6]. Elles ont reportées dans le Tableau II-2. Pour KNbO3, des mesures ont été effectuées par Shirane et co. [II-33]. Elles sont également reportées dans le Tableau II-2. Dans les deux cas, la précision est faible. LCubique → Tétragonale LTétragonale → Orthorhombique LOrthorhombique → Rhomboédrique -3 -3 BaTiO3 4,8 à 6,0 MJ*m 1,6 à 2,8 MJ*m 0,6 à 1,6 MJ*m-3 -3 -3 KNbO3 18,8 à 22,0 MJ*m 8,0 à 10,1 MJ*m 2,9 à 4,0 MJ*m-3 Tableau II-2 : Chaleurs latentes des différentes transitions de phases de BaTiO3 selon Jona et Shirane [II-6] et de KNbO3 selon Shirane et co. [II-33]
IV-2- Polarisation, déformation, paramètres de maille
La polarisation spontanée a été mesurée pour BaTiO3 par Merz [II-18] en 1949 et en 1953 [II-16], Vieder en 1955 [II-25], Chynoweth en 1956 [II-23] et Wemple en 1968 [II-28]. Nous éliminons de la liste les premières données publiées par Merz, ce dernier indiquant lui- 64 - Chapitre II : Propriétés statiques du réseau cristallin même l'imprécision de ses résultats. Les données de Chynoweth sont exprimées en unités arbitraires. Nous les reporterons en les calquant au mieux sur les données de Merz avec lesquelles elles présentent une certaine cohérence. La Figure II-1 fait état de ces données. Pour KNbO3, nous disposons des mesures de Triebwasser en 1956 [II-30] qui sont reportées sur la Figure II-2.
0,30 0,4 Orthorhombique Tétragonale Tétragonale Pz (C*m ) 0,3 -2 -2 Pz (C*m ) 0,25 Rhomboédrique 0,20 Merz 1953 Vieder 1955 Chynoweth 1956 Wemple 1968 0,15 0,10 100 150 200 250 300 0,2 Orthorhombique 0,1 Triebwasser 1956 350 400 0,0 200 450 T (K) 300 400 500 600 700 800 T (K)
Figure II-1 : Polarisation spontanée de BaTiO3 monocristallin mesurée en fonction de la température Figure II-2 :
isation spontanée de KNbO3 monocristallin mesurée en fonction de la température
Les paramètres de maille de BaTiO3 monocristallin ont été mesurés par Megaw en 1946 [II-34] et en 1947 [II-21], Rhodes en 1949 [II-26] et Kay et Vousden en 1949 [II-27]. Les résultats sont portés sur la Figure II-3. Il existe une nette différence entre ces données. Les données de Megaw et de Kay et Vousden semblent assez cohérentes mais décalées. Les données de Rhodes et de Kay et Vousden sont plus cohérentes avec cependant des désaccords sur la phase rhomboédrique et le paramètre c de la phase orthorhombique. Nous disposons pour KNbO3 uniquement des données de Shirane et co. [II-33] réalisées en 1954. Celles-ci sont reportées sur la Figure II-4. L'évolution des paramètres de maille avec la température est tout à fait similaire à celle de BaTiO3. Par contre, Shirane et co. n'ont pas fait de mesures en dessous de la température ambiante et, de ce fait, nous ne disposons pas de données relatives à la phase rhomboédrique.
4,08 Megaw 1947 Kay 1949 Rhodes 1949 4,04 4,03 4,05 c c 4,02 4,01 4,00 3,99 a=b=c a=b 3,98 3,97 3,96 a=b Rhomboédrique 100 Orthorhombique 200 4,06 c c 4,04 4,02 Cubique a=b 4,00 400 Tétragonale a=b 3,98 Cubique Tétragonale 300 Shirane et co. (1954) Orthorhombique 3,96 200 500 300 400 500 600 700 800 Température T (K)
Figure II-3 : Paramètres de maille de BaTiO3 monocristallin mesurée en fonction de la température Figure II-4 : Paramètres de maille de KNbO3 monocristallin mesurée en fonction de la température
65 - Chapitre II : Propriétés statiques du réseau cristallin IV-3- Permittivité, coefficient piézoélectrique IV-3-a- Permittivité
L'essentiel de nos connaissances sur la permittivité de BaTiO3 vient des mesures réalisées par Merz. Une première mesure a été publiée en 1949 [II-18] puis une seconde en 1953 [II-19]. Si la première couvre les phase cubique, tétragonale, orthorhombique et rhomboédrique, la second ne porte que sur les phases cubique et tétragonale. La mesure de 1949 fait apparaître une température de Curie à 120°C. Elle est seulement de 107,5°C sur celle de 1953. Merz lui-même dans son article de 1953 semble indiquer que les premières mesures ne sont pas à retenir à cause de problème d'appareillage. Les valeurs de permittivité relative de 1953 sont reportées sur la Figure II-5. Bien que Merz affirme que, en phase tétragonale, la permittivité ε33(T) suive une loi de type Curie-Weiss, on peut voir qu'il n'en est rien puis la courbe ε33-1(T) n'est pas une droite (Figure II-6). Par contre, et ainsi qu'il est montré dans l'article de Merz, ε33-1(T) est bien une fonction linéaire en T.
| 15,019
|
32/halshs.archives-ouvertes.fr-halshs-01493045-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,977
| 17,486
|
« Les Indiens sont des exploiteurs et les Africains des paresseux! » Production des catégories « raciales » et enjeux socioéconomiques en Tanzanie
Marie-Aude Fouéré
En Tanzanie, et dans toute l'Afrique de l'Est1, les catégories de « Asians » ou « Indiens »2 et d'« Africains » sont des référents ethniques à résonance « raciale » qui font partie du sens commun. Si ces catégories populaires prennent appui sur des distinctions physiques évidentes, elles se nourrissent avant tout de l'exacerbation des différences culturelles et socio-économiques fondatrices d'imaginaires sociaux polarisants. La société tanzanienne d'aujourd'hui n'est pas un melting pot où viendraient pacifiquement se fondre des populations d'origines diverses mais plutôt l'exemple d'un communautarisme à double face. La coexistence sans heurts majeurs des immigrés d'ascendance indienne et des Africains, établie pendant la période coloniale – puis largement alimentée par la rhétorique nationaliste de la période socialiste postcoloniale – n'est en effet pas exempte de tensions continues qui, depuis l'implantation des premiers migrants venus du sous-continent indien à partir du XIXème siècle, sont atténuées ou ravivées en fonction du contexte politique et économique. Ces relations ambivalentes entre populations s'observent principalement dans les centres urbains qui ont accueilli ces migrants. La ville de Dar es Salaam, poumon industriel et commercial de la Tanzanie où les populations d'origine indienne ont un poids démographique et économique sans commune mesure avec le reste du pays, constitue un lieu d'observation propice à l'appréhension des rapports intercommunautaires. La présente contribution3 propose une réflexion qui, partant d'une analyse des modes de constitution et de cristallisation des catégories identitaires « Indiens » et « Africains » en context e urbain, rend compte des multiples facettes des relations qui se sont tissées entre ces groupes au fil du temps. À l'encontre d'une interprétation culturaliste Des migrants originaires du sous-continent indien se sont implantés sur l'ensemble de la côte d'Afrique orientale, du Mozambique à la Somalie, ainsi qu'à l'intérieur du continent (Ouganda, Rwanda, Burundi), mais les différences dans les politiques de ces pays à l'égard de ces minorités nécessitent des études singulières, en particulier à partir de la période coloniale. 2 Avant la partition de l'Inde en 1947, les migrants venus du sous-continent indien étaient désignés en Tanzanie par le terme anglais d'« Indians » et par son équivalent swahili « Wahindi ». Des marchands transhumants aux étrangers de l'intérieur
Dès l'Antiquité, la côte orientale de l'Afrique fut un espace de rencontre entre populations venues de différentes régions du monde, principalement l'Arabie, le centre de l'Afrique, la Chine, l'Inde et la Perse5. C'est par le moyen des activités de commerce que les contacts eurent lieu entre les habitants de la côte et les négociants arabes et asiatiques. Les données sur lesquelles s'appuie ce travail ont été recueillies de diverses façons : par des entretiens formels avec des représentants de différents sous-groupes de la société tanzanienne : jeunes, étudiants, porteparole des associations civiles, journalistes, hommes politiques, etc. ; ainsi que par des discussions informelles avec des Tanzaniens africains aussi bien qu'indo-africains qu'un terrain de longue durée a rendu possible. Des personnes d'origine indopakistanaise ont été interrogées sur leur parcours de vie, leur biographie et celle de leur famille, ainsi que sur la perception de leur position dans la société tanzanienne. Les débats politiques sur la mise en place de politiques discriminatoires envers les Indiens ont été suivis à travers la presse et les réactions du public. 5 La navigation sur l'Océan Indien est facilitée par la mousson. A partir du mois de décembre, les vents poussent les bateaux de la péninsule arabique et de l'Inde vers les côtes africaines. Ils ramènent les navigateurs chez eux à partir du mois d'avril. 4 L'essor des villes côtières entre le XII ème et le XV ème 3 siècle atteste de l'existence d'un commerce florissant : les populations africaines de l'intérieur fournissaient les revendeurs swahilis6 en peaux, en or, en ivoire et en esclaves, tandis des commerçants étrangers (chinois, perses, indiens) acquéraient ces biens par la revente de tissus, de céramique, de porcelaine et de perles. L'intermédiation swahilie constituait alors la règle tacite du jeu de l'échange commercial. Comme l'indique Thomas Vernet (2004 : 64), « d'un côté, les relations avec les populations de l'arrière-pays sont facilitées par la proximité culturelle qu'entretient avec elles la culture swahilie, profondément africaine. De l'autre, l'islam favorise les échanges avec les marchands étrangers, pour la plupart musulmans ». De nombreux témoignages attestent que la position d'intermédiation occupée par les populations swahilies limitait les contacts directs entre fournisseurs de marchandises7. Ce n'est qu'une fois intégrés aux cités-États swahilis, grâce à l'établissement de liens de parrainage, de sang ou de mariage, que des étrangers venus d'horizons différents étaient amenés à se côtoyer. Mais cette intégration se transformant rapidement en acculturation par l'adoption des traits caractéristiques de la culture swahilie (islam, urbanité, commerce), la notion même d'étranger était rapidement vidée de tout contenu. C'est de cette manière qu'au fil des siècles, des habitants de l'intérieur de l'Afrique de l'Est furent progressivement incorporés au monde swahili. Le qualificatif « Africain » désignait donc avant tout les populations étrangères à la vie marchande urbaine de la côte, vivant dans les villes et villages situés à plusieurs jours, voire plusieurs semaines de marche. Dans le cas des migrants venus du sous-continent indien, il semble que l'intégration à l'espace swahili fut limitée par le type de migrations pratiqué. En effet, jusqu'au milieu du XVIIIème siècle, les migrants d'origine indienne étaient avant tout des commerçants spécialisés dans le négoce saisonnier (Bennett 1978, Sheriff 1987). L'installation définitive en Afrique de l'Est n'était pas envisagée. Populations de « transhumants », comme le rappelle l'historien Lofchie (1965 : 292), ces commerçants étaient considérés comme étrangers à la société swahilie et se considéraient eux-mêmes comme tels. Si des cas d'installation définitive dans des cités swahilies ont été rapportés dans les chroniques des premiers observateurs de la côte est-africaine8, c'est la mobilité commerciale qui caractérisait avant tout la présence des populations venues de l'Inde. En ce sens, les Sans rentrer dans les nombreux débats relatifs à la définition des populations dites « swahilies », on désigne par ce qualificatif des populations d'origine africaine noire occupant la côte d'Afrique de l'Est à partir du VIIIème siècle et ayant développé, au contact des commer s arabes, une culture musulmane, urbaine et commerciale spécifique (Horton & Middleton 2000, Caplan & Le Guennec 1991). 7 Par exemple, d'après le géographe arabe Ibn Battuta, les occupants des navires de commerce ne pouvaient descendre librement dans la ville de Mogadiscio : « Ils doivent résider chez un marchand avec lequel ils sont contraints de faire affaire » (Vernet 2004). 8 Voir les références de Bennett (1978) et Sheriff (1987) à l'arrivée de l'explorateur Vasco de Gama en Afrique de l'Est. 6 4 « Indiens » de cette époque étaient vraisemblablement assimilés à la catégorie des commerçants saisonniers étrangers intégrés au système commercial de l'Océan Indien, et s'en distinguaient moins par une identité bien spécifiée que par le type de biens qu'ils importaient. À partir de la première moitié du XVIème siècle, la présence portugaise modifia la hiérarchie des cités-Etats swahilies et entraîna leur soumission à la couronne du Portugal, via le versement de tributs. En revanche, l'organisation commerciale et les caractéristiques culturelles de la côte de l'Afrique orientale demeurèrent inchangées jusqu'au début du XVIIIème siècle. 10 L'archipel de Zanzibar devint une possession du sultanat d'Oman en 1698. C'est à partir de ce point d'ancrage que les Arabes venus d'Oman étendirent leur influence sur la côte orientale de l'Afrique tout au long du XVIIIème siècle. 11 L'archipel de Zanzibar est composé de deux îles : Unguja (couramment appelée Zanzibar) et Pemba. Pour ne pas entraîner de confusion, nous parlerons de « l'île de Zanzibar » pour désigner Unguja, de « l'archipel de Zanzibar », des « îles de Zanzibar » ou de « Zanzibar » tout court pour désigner les deux îles. 9 5 À Zanzibar puis à Dar es Salaam, les immigrants indiens venaient dans leur très 12 grande majorité du sud-est du Pakistan et du nord-ouest de l'Inde (Gujarat, Punjab, Kutch, Kathiawar, Maharashtra). Locuteurs des divers idiomes de ces régions (gujarati, marathi, kutchi, punjabi, konkani, etc.), ils appartenaient aux religions du monde indien (Hindous, Jaïns, Parsis, Sikhs) ou à des branches variées des grandes religions du Livre, mais fortement marquées par l'influence hindouiste (musulmans sunnites, musulmans chiites, chrétiens). Ils représentaient également la plupart des statuts socioprofessionnels du système des castes et suivaient des coutumes locales multiples. Bref, ils formaient « une sorte d'Inde en réduction » (Adam 2006) difficilement réductible à quel traits généraux. Quant aux populations qui furent plus tard désignées par le terme d'« Africains », elles étaient alors parcourues par des frontières multiples. À Zanzibar en particulier, étaient « africains » les marchands swahilis aussi bien que les paysans autochtones dits Shirazi ou AfroShirazi13, divisés en trois groupes principaux, les Wahadimu, les Watumbatu et les Wapemba, auxquels s'ajoutaient les esclaves venus du continent employés comme domestiques ou au travail des champs. La société swahilie était structurée par les références à l'islam et à la culture arabe du Moyen-Orient plutôt que par la couleur de la peau et l'origine géographique (Caplan et Le Guennec 1991). Le partage de ces caractères constituait un gage d'inclusion dans les réseaux matrimoniaux et sociaux des groupes dominants. Minorité « indienne » et autochtones africains
De cette période de sédentarisation indienne sous tutelle arabe, mais aussi britannique, datent les premières formes de cristallisation de frontières identitaires. Des facteurs économiques et juridiques se sont combinés pour expliquer la réduction de la variété des situations identitaires et économiques à des catégories généralisantes. Contrairement aux marchands indopakistanais qui avaient sillonné jusqu'alors l'Océan Indien, les nouveaux arrivants indiens venus se fixer à Zanzibar à partir du début du XIXème siècle avaient le statut de « sujets britanniques ». Dans une île officiellement sous domination omanaise, mais officieusement contrôlée par les puissances européennes14 (au La surpopulation, les sécheresses et les famines, la monopolisation du service public par les autorités coloniales britanniques et le poids des taxations opérées par l'Etat colonial ont été les causes principales de l'émigration indienne à partir du sous-continent indien (Iliffe 1979 : 139, Gregory 1993 : 6-8). 13 Le qualificatif « afro-shirazi » ou « shirazi » s'applique aux populations anciennement installées dans les îles de Zanzibar. 14 Les Traités dits « Amity and Commerce » passés par le sultanat d'Oman avec les Etats-Unis (1833), la GrandeBretagne (1839) et la France (1844) entérinèrent des accords commerciaux préférentiels et autorisèrent la 12 6 premier chef par la Grande-Bretagne), leur existence sociale (éducation, pratiques religieuses, statut juridique) était soumise aux mêmes règles15 que celles s'appliquant aux Indiens résidant en Inde, alors territoire de la Couronne britannique. Suivant la pratique en place en Inde, ils étaient enregistrés sous le terme d'« Indians » dans les documents administratifs. Au statut juridique discriminant auxquels étaient soumis ces immigrants se conjuguait efois un traitement préférentiel : incités à se porter volontaires à l'immigration par les Britanniques, ils venaient occuper les fonctions de commerçants et de banquiers dans une économie de plantation en pleine expansion16. Leurs intérêts économiques, qui correspondaient à ceux de la Compagnie de l'Inde Orientale, étaient donc protégés17. Dès les années 1830, certains Indiens furent nommés à des postes clés de la sphère économique, comme ceux de percepteur des douanes et de banquier de l'Etat18. À côté de ces grandes figures commerçantes se trouvaient également les créanciers indiens auprès desquels commençaient à s'endetter les grands propriétaires fonciers omanais et afro-shirazi de Zanzibar. Enfin, de nombreux commerçants de détail, petits propriétaires terriens, paysans et artisans spécialisés installés à Zanzibar et à Dar es Salaam partageaient les conditions de vie difficiles des Africains autochtones19. Les situations économiques des immigrants étaient donc infiniment variées mais le regroupement dans une unique catégorie juridique, qui réduisait nécessairement la variété des situations réelles, participait à leur isolement des autres éléments de la société swahilie. présence de consulats étrangers à Zanzibar, à partir desquels s'opéra la mise sous tutelle, principalement britannique, des autorités omanaises (Deplechin 1991 : 15). 15 Avec la création de l'Agence britannique, sous contrôle du gouvernement britannique de Bombay, ainsi que de la Compagnie de l'Inde Orientale en 1841, les dispositions légales auxquelles les Indiens étaient soumis se renforcèrent. Ils furent volontairement tenus à l'écart, sur des bases raciales, suivant le principe impérialiste de « diviser pour mieux gouverner ». Des lois spécifiques s'appliquèrent uniquement à eux. Par exemple, entre 1860 et 1869, les Indiens ne furent pas autorisés à posséder des domestiques esclaves (Bader 1991 : 168). Il leur fut aussi interdit de participer au trafic esclavagiste. 16 La culture du clou de girofle fut introduite à Zanzibar dans les années 1810-1820. Avec les cocotiers qui fournissaient le copra (amande de noix de coco séchée destinée à l'extraction d'huile), les girofliers constituaient à l'époque la principale richesse de l'île. 17 Bader (1991 : 184) rapporte la visite à Zanzibar, en 1915, du Capitaine Smee, représentant du gouvernement de Bombay, qui vint contrer les tentatives d'augmentation des droits de douane des marchands indiens par les gouverneurs omanais (Voir aussi Hollingsworth 1953). L'introduction progressive de la roupie indienne dans les transactions financières était destinée à favoriser les échanges avec l'Inde. 18 iram Sewji, un grand marchand hindou bathia de Zanzibar, fut nommé percepteur des droits de douanes, officier en chef du port et banquier de l'Etat par le sultan. Il participa financièrement à l'implantation des commerces indiens à Zanzibar. Dans les années 1870, il fut remplacé temporairement par le marchand ismaélien Tharia Topan, devenu célèbre pour avoir financé des caravanes d'esclaves et d'ivoire de Tippu Tipp. À Dar es Salaam, c'est le marchand hindou bathia Ramji Pragji qui se vit octroyer la position de percepteur des droits de douane (Gregory 1993 : 21, Bader 1991 : 168-9, Sheriff 1987 : 107-9). 19 Après la prohibition de la traite esclavagiste (1873) puis l'abolition de l'esclavage (1897), les autorités britanniques firent venir des coolies indiens pour travailler dans les plantations de girofliers aux côtés des paysans africains autochtones et des esclaves africains nouvellement affranchis L'émigration de cette maind'oeuvre indienne fut rapidement stoppée quand il s'avéra qu'elle revenait beaucoup plus cher que la maind'oeuvre issue du continent africain (Deplechin 1991 : 22-23, Sheriff 1991 : 118-119). 7 Comme les autres populations présentes sur les territoires soumis à la tutelle du Royaume-Uni, les populations africaines étaient de leur côté l'objet des classifications strictes utilisées pour les dénombrer et organiser l'ordre économique et social. Dans les documents administratifs, la catégorie des « Indians » déjà évoquée côtoyait celles des « Arabs » et des « Africans », la première comprenant les Omanais récemment installés, la seconde le reste de la population. Le regroupement des Africains sous une étiquette unique cachait toutefois une multiplicité de situations économiques. Grands propriétaires terriens afro-shirazi fondateurs de la culture swahilie, paysans propriétaires de petites parcelles qui travaillaient sur les plantations pendant la saison des récoltes des clous de girofles, esclaves paysans ou domestiques puis affranchis mais sans terre (« squatters »), dockers, porteurs (wachukuzi en swahili), ou artisans peu qualifiés, les « Africains » désignés par l'administration britannique avaient surtout comme point commun d'être considérés comme les seules populations réellement autochtones (« Natives »). L'affichage de ces catégories identitaires, traduites en dispositions légales et en politiques discriminatoires (dans les domaines sociaux et économiques aussi bien que urbanistiques ou idéologiques), favorisa ainsi la polarisation ethnique de la société zanzibarite On voit donc comment, à partir du sultanat omanais dirigé en sous-main par la Grande-Bretagne, les modes de gestion des territoires de Zanzibar et de la côte swahilie imposèrent des statuts identitaires, lesquels furent ensuite intégrés dans la conscience des individus au cours des décennies suivantes pour penser leur appartenance. Si elle réduisait la distance sociale et symbolique, la proximité des niveaux de vie des Indiens les plus modestes et d'une partie des Africains urbanisés ne suffisait pas à cacher aux yeux de ces derniers qu'ils étaient exclus du monopole indien sur le commerce, qu'il soit de gros ou de détail. De plus, la notoriété des grands marchands indiens et la mainmise indienne sur le système financier de l'île contribuaient à nourrir des stéréotypes ethnico-religieux englobants de la part des populations africaines les plus pauvres. Dans ces processus de constitution des nouvelles identités communautaires, il convient aussi de tenir compte des modes de repli sur soi des nouveaux venus. Mis à distance à la fois par les Européens et par les Africains, les Indiens se tenaient eux-mêmes à distance en renforçant ou même en créant des liens nouveaux intracommunautaires qui effaçaient les différends internes et sélectionnaient les caractères susceptibles de les unir : leur statut d'étrangers, des conditions de travail placées sous le sceau du commerce et de la finance, et surtout une même origine géographique large, principalement les régions du Gujarat et du Punjab. Des liens forts étaient conservés avec l'Inde, premier importateur des 8 clous de girofles de Zanzibar et pays d'origine des marchandises transportées et commercialisées par les Indiens installés en Afrique orientale. L'appel à la protection des marchands indiens de Zanzibar par leurs partenaires résidant en Inde, lorsque la GrandeBretagne décida de mettre fin à la pratique consistant à réserver le poste de Percepteur des Douanes à un Indien, illustre la force des réseaux trans-familiaux et transcommunautaires qui structuraient déjà à cette époque le commerce de l'Océan Indien. Gregory (1993 : 20) insiste sur l'importance d'un autre facteur d'isolement socioculturel, à savoir le désir, de la part des familles commerçantes modestes, d'échapper, en s'expatriant, à la tutelle d'un État dont l'expérience historique a montré qu'il fut, en tout cas dans l'Inde précoloniale, fréquemment pré ateur20. Des pratiques matrimoniales endogamiques, une relative ségrégation résidentielle21 et des habitudes alimentaires exclusives22 contribuèrent également à l'exclusion sociale des familles indiennes. À l'origine de ces attitudes de repli, les hiérarchies sociales déterminées par le système des castes pesèrent évidemment de tout leur poids sur le rapport avec les Africains de peau noire, assimilés aux hors castes noirs animistes de l'Inde, lesquels étaient traitées avec mépris et relégués aux tâches considérées comme les plus avilissantes (Prunier 1998, Dumont 1979 [1966]). En témoigne par exemple le fait que, même dotées de moyens modestes, de nombreuses familles indiennes de la ville employaient du personnel africain, alors que la situation inverse n'était pas envisageable23. Ennemis de l'intérieur pendant la colonisation européenne
De 1890 à 1916, les changements dans la gestion politique et économique des îles de Zanzibar ayant eu un impact sur les modes d'identification populaires furent peu nombreux. Signalons toutefois qu'à partir de 1900, les Britanniques commencèrent à craindre le pouvoir financier des marchands et banquiers indiens. C'est en effet à cette époque qu'il apparut avec évidence aux yeux du colonisateur que les plantations de clous de girofle – juridiquement propriété de riches Arabes omanais et d'Africains shirazi – étaient de fait aux mains de leurs créanciers indiens. Les Britanniques se risquèrent alors à retirer aux Indiens certains des droits attachés à leur qualité de sujets britanniques. Aucun représentant de la communauté indienne ne fut invité à participer au Protectorate Council, organe de décision concernant la gestion du protectorat britannique. Ces mesures renforcèrent chez les Indiens le sentiment diffus qu'ils étaient des marionnettes aux mains du pouvoir britannique. Traités par ce pouvoir comme une entité culturellement et religieusement homogène sur la base d'une définition « ethnico-raciale », ils réagirent en se fondant dans un moule communautaire unique. La formation des premières associations à dénomination ethnique, qu'elle eut témoigné de l'existence d'une réelle conscience de classe opprimée (structurée par la division raciale) ou de l'emprise de l'idéologie racialiste de l'administration britannique, consacra, dans le langage de l'administration, l'existence de catégories « racialement » distinctes et rendit visible aux yeux des populations des identités jusqu'alors plus bureaucratiques que populaires. Il n'est guère étonnant, connaissant les intérêts économiques en jeu, que la première de ces associations ait été justement l'Indian Merchants' . Fondée en 1905, elle regroupait une élite indienne à la fois soucieuse de la défense de ses intérêts économiques et politiques et désireuse de demeurer en bons termes avec les Britanniques. 24 Tanganyika, Rwanda et Burundi formèrent en 1891 l'Afrique Orientale Allemande (Deutsche Ostafrika). 10 Dans la capitale du Tanganyika allemand, Dar es Salaam, les Indiens qui avaient fui les contrôles tatillons du pouvoir colonial britannique25 installèrent leurs échoppes et leurs entreprises dans une ville quadrillée par un zonage urbain, conformément à la Bauordnung du 14 mai 1891 imposant des obligations urbanistiques et architecturales (Raimbault 2006). L'existence de trois grandes zones résidentielles (Zone I européenne, Zone II indienne, Zone III africaine) entraîna une ségrégation spatiale, économique et ethnico-raciale26. Dans ce nouveau paysage urbain, rien ne vint perturber les schèmes « raciaux » qui avaient pris consistance dans les îles de Zanzibar. Les catégories identitaires utilisées par l'administration allemande recoupaient en partie celles mises en place tardivement par les Britanniques. À la distinction fondamentale Européens / non Européens (appelés Farbingen, c'est-à-dire les « colorés ») s'ajoutaient des divisions au sein des non Européens entre natifs (les Eingeborenen ou « autochtones », comprenant les Africains et les Arabes) et non natifs (Indiens). Minorité démographique27, les Indiens rassemblaient comme à Zanzibar le plus grand nombre de commerçants, marchands et propriétaires fonciers. Avec les Africains affluant dans une capitale en plein développement se tissaient avant tout des rapports de dépendance, les riches propriétaires fonciers indiens acceptant l'installation de migrants africains sur leurs terres en échange d'un loyer. En ville, ces mêmes Indiens étaient aussi les propriétaires des chambres et maisons louées aux Africains. Il put paraître évident aux yeux de ces migrants Africains que les Indiens étaient du côté des puissants : Européens et grandes familles arabes ou swahilies.
M
les petits boutiquiers indiens du centre-ville, que le niveau de vie rapprochait de certains Africains, restèrent étrangers à une population reléguée spatialement (dans la zone III de la ville), exclue de la sphère commerciale officielle et maintenue au bas de l'échelle sociale. Traités durement par leurs patrons aussi bien que par l'administration coloniale, les Africains ne pouvaient pas prétendre aux petits arrangements avec la loi accessibles en revanche aux Arabes et aux Indiens riches28, ceci grâce à leur générosité envers cette administration29. Les mêmes Certaines grandes sociétés commerciales indiennes telles celles appartenant à Sewa Hajee Paroo et à Alidina Visram s'installèrent en territoire allemand afin de se soustraire aux contraintes de l'administration britannique (Bader 1991). 26 Frank Raimbault note que, parmi les historiens, le débat n'est pas tranché sur les rapports entre planification urbaine et idéologie raciale. Selon l'auteur (2006 : 43), « les objectifs du colonisateurs de 1891 n'étaient pas de transcrire spatialement une vision raciale d'une société coloniale encore dans les limbes. La preuve en est que de nombreux Africains continuèrent à vivre dans le quartier administratif et résidentiel. Il n'est pas d'ailleurs possible de trouver la trace d'une volonté administrative d'instituer la ségrégation raciale avant l'année 1906 ». 27 Dès 1913, la population de Dar es Salaam atteignit environ 22500 personnes, dont 20000 Africains et 2500 Indiens. Voir le recensement de 1864 (Lofchie 1965). 28 En 1906, à l'issue d'un débat au sein de l'administration coloniale, le gouverneur autorisa les Indiens aisés à construire dans le quartier européen (Raimbault 2006 : 43). 29 Une des principales figures de la communauté indienne dans les années 1880-1890, Sewa Haji, fit don, à sa mort en 1897, de ses terres à l'administration coloniale allemande (Raimbault 2006 : 73). Pendant cette 25 11 manifestations d'inégalité raciale s'observaient dans le reste du Tanganyika. Après le relatif déploiement des Indiens à l'intérieur du territoire à la suite de la construction de la ligne de chemin de fer entre Dar es Salaam et Kigoma, petit bourg situé sur le lac Tanganyika, les transformations qui affectaient la capitale Dar es Salaam se propagèrent aux autres villes du pays (Giblin 2005, Iliffe 1979). On voit donc que l'organisation urbaine, la division du travail et les hiérarchies sociales n'étaient pas seulement le miroir d'une société coloniale hantée par la question raciale mais contribuaient à former société et à la renforcer. À partir de 1916, l'ensemble du Tanganyika passa sous contrôle britannique à la suite de la défaite de l'armée allemande en Afrique orientale. Au cours des années qui suivirent, de nombreux Indiens furent recrutés dans la fonction publique subalterne et dans l'armée, tandis qu'une immigration spontanée alimentait l'afflux des petits commerçants, ouvriers et artisans. La présence des immigrants indiens et leur réussite économique devinrent alors un objet de préoccupation pour les colons britanniques. Dans les îles de Zanzibar, les taux d'endettement et de mises en hypothèque30 des grands propriétaires arabo-swahilis étaient tels que les autorités britanniques instaurèrent entre 1920 et 1930 des limites légales à l'enrichissement des commerçants indiens (interdiction d'acquérir de nouvelles terres par le Clove Bonus Scheme en 1922 et le Alienation of Land Decree en 1934 ; contrôle de la délivrance des licences commerciales par le Clove Exporters' Decree en 1934)31. Considérées comme une « législation anti-indienne » par les Indiens du Tanganyika, ces mesures déclenchèrent parmi eux un tollé général. Elles ne furent révisées par le gouvernement colonial britannique qu'à la suite des pressions commerciales exercées dès 1938 par les partenaires commerciaux indiens résidant en Inde, via un embargo sur les exportations de clous de girofle. Ce furent donc les liens forts conservés avec l'Inde qui permirent aux Indiens de maintenir leur position économique à Zanzibar. Mais cet événement marqua un tournant dans la perception des Indiens présents en Afrique de l'Est par le pouvoir en place : cette élite commerçante, qui s'était montrée capable de contrecarrer les mesures adoptées par le gouvernement colonial grâce à la force de son période, certains marchands indiens étaient beaucoup plus riches que les colons européens, et quelques grands noms étaient des proches des hauts fonctionnaires coloniaux. 30 Dès les années 1880, le tiers des plantations de girofliers était financé par des créanciers indiens (Bader 1991 : 173). Entre 1923 et 1935, près de 500 000 girofliers sur les 2 millions que possédait l'île de Zanzibar étaient la propriété des banquiers indiens (Mlahagwa et Temu 1991 : 158-159). 31 La volonté de mettre un frein aux activités économiques des riches Indiens après plusieurs décennies de promotion par les Britanniques s'explique par la crainte d'une déstabilisation du pouvoir arabe officiel, entraînant le désordre social et menaçant les intérêts économiques européens. Comme le rappelle Mangat (1969 : 5), citant les propos du proconsul britannique John Kirk, les Indiens n'en ont pas moins été indispensables à l'implantation du pouvoir britannique dans le seconde moitié du XVIII ème siècle : « Ce fut entièrement grâce aux marchands indiens que nous fûmes en mesure d'établir nos positions et de faire rayonner notre influence en Afrique orientale ». 12 réseau transnational, devint un « mal nécessaire » à une économie coloniale qu'il s'agissait néanmoins de contrôler (Bader 1991 : 174). Les débordements africains contre la cible indienne
À Dar es Salaam, la politique de ségrégation spatiale mise en place sous la colonisation allemande fut renforcée par les Britanniques. De nouvelles lois discriminantes s'appliquèrent aux migrants Africains attirés par les opportunités32 qu'offrait la capitale. A partir des années 1920, l'administration coloniale utilisa le terme wahuni pour désigner les populations africaines désoeuvrées qui venaient chercher un emploi à Dar es Salaam. Selon l'historien Andrew Burton, wahuni englobait les fractions marginales, mal connues, incontrôlées et potentiellement turbulentes de la population urbaine (2005 : 5-6). Des lois furent promulguées afin de faire obstacle à un exode rural massif, perçu comme dangereux par les populations aisées de la capitale, à savoir les Européens, les Indiens et l'élite africaine émergente. À partir de 1920, de nouveaux règlements urbains (Township Rules) limitèrent les droits de résidence des Africains et sanctionnèrent les désordres à l'ordre public (vagabondage, prostitution, jeux de hasards et paris). La Destitute Persons Ordinance de 1923 autorisa l'arrestation sans préavis de toute personne « apparently destitute », c'est-à-dire sans emploi ni moyens de subsistance clairement identifiables. En 1924, la ségrégation urbaine fut renforcée par la création d'une zone neutre, l'actuel espace vert de Mnazi Mmoja entre la zone II et la zone III de la ville. Ces trois zones furent officieusement assimilées aux « races » qui les composaient : Uzunguni, Uhindini, Uswahilini33. Certes, tout au long de la période de colonisation britannique, la ségrégation raciale et résidentielle demeura davantage un idéal d'urbanisme qu'une réalité. Ainsi, de nombreux Indiens s'installèrent à Kari o lorsque le grand marché central de Dar es Salaam y fut déplacé en 1923. Mais la relégation des Africains au bas de l'échelle sociale était dores et déjà renforcée par l'interdiction officielle du transfert de biens immobiliers entre Africains et non Africains en Andrew Burton (2005) montre bien le décalage entre la réalité du marché de l'emploi et les espérances d'ascension sociale qui poussaient les populations de toutes les régions de Tanzanie à chercher du travail à Dar es Salaam. 33 Les noms des quartiers avaient été composés en référence à l'identité collective de leurs occupants principaux : Uzunguni, « quartier des Wazungu » (« Européens » en langue swahilie) ; Uhindini, « quartier des Indiens » (Wahindi en swahili) ; Uswahilini, « quartier des Swahilis », en réalité quartiers où se regroupaient tous les Africains. Émergence d'intérêts communs face au pouvoir colonial
Les barrières entre immigrés indiens et Africains commencèrent à se fissurer au moment où le mouvement nationaliste prit de l'ampleur, dans les années 1950-1960. À l'absence de toute implication dans l'ébullition anticoloniale qui avait caractérisé les années 1920-1930 se substitua l'entrée des Indiens en politique, en particulier de la part d'une minorité de militants radicaux. Les restrictions à l'immigration en provenance de l'Inde, Dans les années 1950, 2000 personnes furent déplacées de force pour retourner dans leurs villages (Burton 2005). 35 Parmi les Européens, un cliché fréquent au sujet des Indiens était leur saleté (Burton 2005 : 52). 34 l'inégalité de représentation dans les organes du gouvernement colonial, les formes quotidiennes de discrimination (salaires inférieurs à ceux des Européens, impossibilité d'accéder à des postes à haute responsabilité) furent la cause de cet engagement politique aux côtés des Africains. Celui-ci, toutefois, fut loin d'être unanime. À Zanzibar, en particulier, les Indiens, pour la plupart, se tinrent à l'écart de l'effervescence anticolonialiste qui vit naître des partis politiques tels le Zanzibar National Party (ZNP), représentant l'élite arabe, et l'Association Shirazi Party (ASP), regroupant les bourgeois afro-shirazi. En revanche, sur le continent, l'Asian Association fut créée par des membres importants de la communauté indienne du Tanganyika dans l'objectif de soutenir le combat nationaliste des leaders africains de la Tanganyika African Association (rebaptisée Tanganyika African National Union (TANU) en 1954)36. La création d'une organisation politique regroupant Africains et Indiens, longuement discutée, ne fut cependant jamais réalisée. Par , à la suite de la partition de l'Inde en 1947, des scissions internes vinrent limiter la mobilisation anticoloniale indienne, révélant à cette occasion qu'une très grande majorité d'Indiens37 préféraient en réalité le statu quo colonial à la formation d'un gouvernement africain indépendant. Au cours des discussions sur la réforme constitutionnelle menant à l'indépendance de la Tanzanie, le gouverneur britannique de l'époque, Sir Eward Twining, qui défendait la mise en place de la parité « raciale »38, accusa la TANU et son chef de file, Julius K. Nyerere, de promouvoir un « racialisme noir », dans l'objectif de mettre fin à la domination européenne et au pouvoir économique indien (Iliffe 2005). D'illustres membres de la communauté indienne prirent alors le parti du colonisateur. Ainsi, en 1955, la déclaration de l'avocat Iqbal Chand Chopra aux Nations Unies, selon laquelle le Tanganyika ne serait pas prêt pour l'indépendance avant vingt-cinq ans, souleva l'indignation des nationalistes africains mais fut approuvée par nombre d'Indiens de Tanzanie. De même, la création du parti United Tanganyika Party (UTP) par le gouvernement britannique, dans le but de s'opposer aux prétentions nationalistes par le moyen de la promotion d'une politique multiraciale, fut largement soutenue par certains Les membres influents de l'Asian Association participèrent à la création de la TANU bien qu'il leur fut interdit d'en être membres. Par ailleurs, ce furent deux frères Indiens, Surendra et Randhir Tahker, qui financèrent le journal de la TANU, Mwafrika, avant de créer leur propre journal, Nguramo qui consacra ses pages à la défense du nationalisme africain (Gregory 1993). 37 Selon Surendra Tahker, « Quatre-vingt à quatre-vingt dix pour cent des Indiens nous détestaient »(cité par Gregory 1993). 38 Conformément à cette parité « raciale », chacune des trois « races » du Tanganyika se vit attribuer un même nombre de sièges au Conseil Législatif, sans tenir compte de leur poids démographique. Pour la TANU, qui défendait les droits de la majorité dominée, « le multi-racialisme signifiait le gouvernement pour le bien des Européens et des Indiens, et finalement uniquement pour les Européens. Il y avait seulement 3000 Européens et colons au Tanganyika mais ils prétendaient gouverner le pays et ils exhortaient toutes les populations à vivre paisiblement ensemble » discours de Nyerere prononcé le 25 janvier 1957, cité par Iliffe 2005). 36 15 des membres influents de la communauté indienne. Ceux-ci furent qualifiés de « pantins 39 indiens » (« Asian stooges ) par leurs opposants (Gregory 1993 : 109). Lorsqu'aux élections de 1958-59, la TANU présenta dix candidats d'origine indienne et fit élire les trois grands défenseurs de l'anticolonialisme tanganyikais, à savoir A.H. Jamal, K.L. Jhaveri et M.N. Rattansey, un élan de ferveur politique gagna pourtant la communauté indienne dans son ensemble. Cependant, au sein du gouvernement issu de ces élections, le poids des représentants indiens fut, en réalité, très modeste. Le rapprochement politique entre Indiens et Africains au cours de la période de lutte anticoloniale, qui aurait pu créer les conditions d'un rapprochement au sein de la population, fut donc de courte durée. La période du socialisme à l'africaine (1962-1985)
Le Tanganyika accéda à l'indépendance en 1961, et s'unit en avril 1964 aux îles de Zanzibar pour former la République Unie de Tanzanie. Le projet de construction d'une société socialiste, qui caractérisa toute la période qui suivit l'indépendance de la Tanzanie, de 1961 jusqu'au milieu des années 1980, fut traversé de graves contradictions. La nouvelle nation tanzanienne que l'idéologie officielle visait à édifier reposait sur la promotion de l'unité nationale. Une identité tanzanienne détribalisée, indifférente à l'origine « raciale » et attachée à une même patrie, devait se substituer aux anciennes divisions résultant de la colonisation (Nyerere 1967). Mais cette identité, en Tanzanie aussi bien que dans l'ensemble des pays d'Afrique nouvellement indépendants, était largement définie en Il semble que l'imam des ismaéliens agakhanistes, richissime homme d'affaires soutenu par sa communauté religieuse, ait financé le parti des colons, le United Tanganyika Party (Gregory 1993 : 109).
à une africanité caractérisée par la géographie, la culture et, ju ' cette époque , la « race
».
Au Tanganyika, le président nouvellement élu, J.K. Nyerere, s'était prononcé dès son entrée en politique contre toute discrimination raciale. Fidèle à ses idées, il composa un premier cabinet mixte, comprenant sept Africains, quatre Européens et un Indien : A.H. Jamal. Au cours des années 1962-1964, près de la moitié des membres de l'Asian Association entrèrent à la TANU à la suite de la levée de l'interdiction faite aux Indiens d'adhérer à cette association Par ailleurs, quelques membres de la communauté indienne accédèrent à des postes clés du gouvernement et des administrations publiques : A.Y.A. Karimjee devint président de l'Assemblée, M.M. Devani maire de Dar es Salaam et D.K Patel vice maire de la même ville. Mais les rancoeurs entretenues par le souvenir des positions privilégiées occupées naguère par les Indiens et les aspirations des Africains à accéder à des postes jusque là interdits réveillèrent les anciennes animosités. Dès 1964, des syndicats réclamèrent une « africanisation » rapide de la fonction publique, c'est-à-dire le remplacement des membres de la communauté indienne par des Africains noirs. La même année, des revendications similaires agitèrent l'armée nationale et conduisirent à une mutinerie, toutefois rapidement contrôlée. Pour les Tanzaniens africains, la page de la soumission des populations noires aux cadres administratifs, militaires et commerciaux indiens mise en place par les colons blancs devait être tournée. À Zanzibar, la révolution socialiste de février 1964 conduisit à la polarisation communautaire des conflits socioéconomiques. Les populations d'origine arabe et indienne, perçues comme dominatrices et spoliatrices, devinrent la cible d'agressions physiques et verbales. Une majorité d'entre elles se réfugia sur le continent40. À partir de la déclaration d'Arusha de 1967, qui définit et mit en place les politiques socialistes qui allaient guider le pays jusqu'au milieu des années 1980, les tensions entre Indiens et Africains resurgirent. Certes, les valeurs d'égalité et d'unité étaient promues pour pacifier le pays et canaliser les explosions de violence. Mais la diabolisation des « capitalistes » et les politiques socialistes adoptées à partir de cette période eurent un rôle majeur dans le renforcement des divisions communautaires. Le colonisateur parti, les Indiens furent perçus comme les nouveaux représentants de la catégorie des exploiteurs. Avec les autres groupes privilégiés de Tanzanie comme les Arabes et quelques rares capitalistes africains, ils furent mis au ban d'une société qui se voulait socialiste et désignés comme les ennemis des paysans et des travailleurs. En 1967, la nationalisation des La citoyenneté zanzibarite fut refusée à toute personne ayant quitté les îles de Zanzibar dans les deux mois qui suivirent la révolution de 1964. 40 17 entreprises privées toucha de plein fouet les commerçants d'origine indienne. En 1972, la nationalisation des biens immobiliers sous l'égide de la National Housing Corporation (NHC), affecta principalement des Indiens, propriétaires des maisons familiales et des petits commerces du centre ville et du quartier de Kariakoo. En 1983 enfin, la campagne dite 'Anti-saboteurs' (Economic Sabotage Act), qui visait à lutter contre le trafic frauduleux, prit nettement pour cible les commerçants d'origine indienne. Encore aujourd'hui, ces trois événements sont présentés par les Indiens de Tanzanie comme des exemples-types de leur persécution. Les effets des politiques de l'ujamaa sur le commerce amenèrent certains analystes à proclamer la disparition de la classe des capitalistes, en particulier des Indiens (Shivji 1976, Gregory 1993). À Zanzibar, à partir de 1966, le président Abeid Amani Karume imposa aux Zanzibarites de se munir d'une carté d'identité insulaire, sans que les procédures de son attribution eussent été bien définies41. Les minorités arabe et indienne, auxquelles la nationalité zanzibarite était souvent refusée, furent la cible des discours politiques xénophobes du président, qui les accusa d'être responsables des échecs économiques et d'être des ennemis du pouvoir (Crozon 1992). Ces discours racistes 42 s'ajoutaient aux expulsions, spoliations et menaces de toutes sortes. En 1969, l'affaire dite des « mariages forcés » débuta comme une campagne en faveur des mariages interraciaux mais prit rapidement la forme de mariages célébrés sous la contrainte, sans consentement des familles, entre hommes de pouvoir africains et jeunes filles arabes et indiennes. De telles mesures, qui s'en prenaient aux symboles de la domination des anciens groupes au pouvoir, vinrent conclure des décennies de différenciation ethnico-raciale. Elles consolidèrent les barrières existant entre Indiens et Africains, renforçant leur statut d'entités distinctes et limitant les passerelles entre deux mondes se considérant comme des étrangers irréductibles. La période socialiste n'apporta aucun nivellement aux oppositions communautaires déjà ancrées dans le paysage social tanzanien, bien au contraire. Parce que les populations d'origine indienne avaient été prises pour cible en tant qu'exploiteurs capitalistes, elles furent particulièrement touchées par les politiques de nationalisation et d'expulsion en tout genre ainsi que par les menaces et accusations qui les accompagnèrent. Certes, Les modalités d'attribution de la nationalité zanzibarite varièrent au fil des ans. En 1971 fut promulgué un décret indiquant que « seules les personnes ayant un ascendant africain direct peuvent revendiquer la 'citoyenneté insulaire' » (Crozon 1992 : 221). 42 En 1970, le président A.A. Karume tint un discours à Zanzibar où il critiqua le gouvernement de l Union et insulta les Indiens résidant dans le pays : « Qu'est-ce que cette histoire d'Indiens citoyens de Tanzanie ; quelle est cette loi imbécile découlant d'une constitution non moins idiote qui leur accorde la citoyenneté? Aucun Indien ne peut être citoyen tanzanien (). Chassons ces chiens qui ne savent que gagner de l'argent à nos dépens sous couvert d'une prétendue nationalité tanzanienne » (discours de Karume du 29 octobre 1970 cité par Crozon 1992 : 221). contrairement au cas de l'Ouganda qui fut le théâtre d'une expulsion massive (Mazrui 1976, Prunier 1990, Twaddle 1975), le gouvernement tanzanien prit le parti de laisser aux Indiens le choix de rester en Tanzanie ou de quitter le pays. Identités, libéralisation économique et « indigénisation » (1985-2005)
En 1985, la Tanzanie tourna le dos aux politiques publiques socialistes agonisantes pour entrer de plain-pied dans un système économique de type capitaliste. Sous la pression des bailleurs de fonds internationaux, le processus de privatisation des entreprises et des banques parapubliques ainsi que le développement de l'investissement privé dans le tourisme et l'industrie allèrent bon train (Tripp 1997, Bagachwa 1999). Si les nouvelles opportunités ainsi créées furent saisies par les investisseurs étrangers, elles bénéficièrent également aux Tanzaniens pourvus d'un fort capital financier, qu'ils aient été entrepreneurs, anciens fonctionnaires d'Etat ou hommes politiques. Parmi ceux-ci, les citoyens d'origine indienne eurent un poids fort, conséquence d'une spécialisation économique ancienne. C'est dans ce contexte que les rancoeurs anciennes s'exprimèrent à nouveau ouvertement. Le départ de J.K. Nyerere et l'élection d'un nouveau président, Ali Hassan Mwinyi, marquèrent l'abandon radical d'une économie socialiste planifiée43 et le passage à une économie capitaliste de libre marché. L'adoption des Plans d'Ajustement Structurel sous tutelle de la Banque Mondiale et l'octroi de crédits par le Fonds Monétaire International entamèrent le tournant vers la libéralisation de l'économie. Ces mesures furent accompagnées de programmes successifs qui parachevèrent la dérégulation en matière économique et politique (Economic Recovery Programme en 1986, Structural Adjustment Facility en 1987, Enhanced Structural Adjustment Facility en 1991). C'est ainsi que furent autorisées l'ouverture des capitaux des entreprises, la privatisation des industries et entreprises paraétatiques, et la liberté de création d'entreprises et de banques à titre privé. Sachant que dans le milieu des années 1980, plus de de la population tanzanienne vivait de l'agriculture en milieu rural ; sachant encore que les canaux d'enrichissement personnel avaient été entravés par les mesures politiques dirigistes de la période socialiste ; sachant L'idéal socialiste d'indépendance économique promu lors de la Déclaration d'Arusha sous le terme swahili de kujitegemea, a été traduit en anglais par self-reliance et en français par la périphrase « compter sur ses propres forces ». Ce mot d'ordre s'est largement accommodé de pratiques capitalistes, en particulier l'apport de financements et d'investissements étrangers (Batibo & Martin 1989). enfin que le secteur industriel ne contribuait qu'aux environs de 6% au produit intérieur brut, il n'est guère étonnant de constater que les politiques libérales engagées à cette époque profitèrent en premier lieu aux investisseurs étrangers (Européens, Américains et Sud-Africains principalement). Loin derrière venaient les Tanzaniens ayant accumulé un capital économique suffisant pour participer aux nouvelles opportunités économiques : hommes d'affaires arabes de Zanzibar, fonctionnaires et hommes politiques africains, et enfin grands commerçants indiens. Quant au reste de la population, il ne fut aucunement concerné. Le nouveau paysage économique qui se forma dans les années 1990 fut donc caractérisé par l'accroissement de l'investissement étranger et la naissance d'un capitalisme tanzanien, quasiment inexistant jusqu'à alors (Heilman 1998a, 1998b). Toutefois, au sein de la petite classe des hommes d'affaires locaux, la minorité d'origine africaine se retrouva rapidement à la traîne des grands marchands d'origine indienne, mieux dotés en capitaux, en réseaux et en savoir-faire. C'est dans ce contexte du passage d'une économie socialiste dominée par l'Etat à une économie capitaliste ouverte aux entrepreneurs les plus riches, mais fermée de facto aux Tanzaniens sans capital financier suffisant, que s'amorça en Tanzanie une réflexion sur l'« indigénisation » de l'économie. Entre 1995 et 2005, de nombreux articles parurent dans la presse tanzanienne à propos d'un hypothétique projet de nouvelle politique économique, désignée littéralement par le nom de « indigénisation » ou uzawa44 en swahili (Bancet 2004). Le contenu et les modalités d'application de cette politique furent l'objet de controverses dans les milieux économiques et politiques (Aminzade 2003). Le terme uzawa apparut pour la première fois dans le programme d'un parti politique d'opposition, le NCCR-Mageuzi (National Convention for Construction and Reforms). Un article de l'hebdomadaire Mfanyakazi rapporta à ce sujet les propos de l'ancien chef de ce parti, Augustine Mrema45 tenus au cours d'un meeting politique public dans la ville de Bukoba en mai 1995. Selon le journaliste, l'objectif majeur de l'uzawa consistait à garantir à l'ensemble de la population des chances égales de mettre en oeuvre un projet entrepreneurial, en particulier grâce à l'octroi de prêts bancaires. Le terme swahili uzawa définit une identité résultant d'une communauté de naissance, d'appartenance territoriale et de références culturelles. Traduit en anglais par nativeness ou indigenousness (« indigénité »), il désignait autrefois au sens restreint l'appartenance à la famille élargie ou au clan. Après les indépendances, uzawa a pu servir pour mentionner plus largement l'appartenance ethnique. À la suite d'une dérive sémantique, il est devenu plus récemment synonyme d'« africanité » en général. Il est à noter toutefois que cette nouvelle identité apparemment englobante est en réalité devenue beaucoup plus restrictive, car elle est fréquemment associée dans l'esprit des locuteurs à la couleur de la peau. Seuls à pouvoir se doter de cette qualité essentielle, les Africains noirs sont des wazawa (sing. mzawa), c'est-à-dire des indigènes, des autochtones, porteurs natifs de l'uzawa. Enfin, au cours de la période qui nous intéresse ici, le terme uzawa en est venu à désigner également le processus par lequel les Africains noirs pourraient renforcer leur présence, en nombre aussi bien qu'en chiffres d'affaires, dans les secteurs économiques et financiers nationaux. 45 Augustine Mrema est l'actuel président du TLP (Tanzania Labour Party). Il semble que Mrema ait été très attentif à ne pas faire de ce concept un tremplin pour les avocats de la discrimination communautaire : tout citoyen tanzanien, quelles que soient son origine et sa position socio-économique, devait être, à ses yeux, autorisé à participer à l'essor économique du pays. Le DP (Democratic Party) fut, en 1995, le second parti d'opposition à avoir intégré l'idée d'« indigénisation » de l'économie à son programme politique. En s'appropriant le terme uzawa, son chef de file, le révérend Christopher Mtikila, entendait mettre en oeuvre une politique d'« indigénisation » radicale impliquant le contrôle très strict des entreprises détenues par des non Africains. Connu pour ses positions extrémistes et ses qualités d'orateur démagogue (Prunier 1998, Crozon 1998), Mtikila contribua largement à radicaliser le concept politique d'uzawa. Alors que la période qui suivit sembla marquer un coup d'arrêt dans la montée des sentiments ophobes, la parution en 2003 d'un pamphlet signé Iddi Simba (ancien ministre de l'industrie et du commerce, membre du Parlement et du comité central du parti Chama Cha Mapinduzi, ou CMM) relança la mobilisation anti-« étrangère » en reprenant les principales propositions des plans précédents d'« indigénisation » : accès facilité aux prêts bancaires au bénéfice des « autochtones », priorité dans le rachat des anciens organismes paraétatiques, etc. En affichant des préférences à l'égard des citoyens d'origine africaine, des mesures discriminatoires fondées sur l'origine (sinon sur la couleur de peau) étaient donc ouvertement promues. Les étrangers non Africains (dont les Indiens non tanzaniens), mais également les Tanzaniens d'origine indienne étaient non seulement écartés de certaines fonctions économiques et commerciales, mais également tenus pour responsables du sousdéveloppement du pays affectant en premier lieu les Africains (Nagar 2000). On voit ainsi que, au fil des ans et en fonction de ses défenseurs, la politique dite uzawa prit des colorations quelque peu différentes. Si, dans les premières années où ces questions furent débattues, les partis d'opposition se montrèrent soucieux de distinguer l'uzawa et la discrimination ethnique46, on constate qu'un tournant radical fut amorcé par quelques chefs des partis d'opposition, voire par des membres du parti au pouvoir, promoteurs d'une vision dichotomique du développement économique : les investissements étrangers étaient présentés à la population comme synonymes d'invasion et d'exploitation étrangère que les nationaux démunis ne pouvaient contenir. Le pas fut franchi lorsque les deux catégories « étrangers » et « nationaux » firent l'objet d'une définition explicite : étaient étrangers les porteurs de passeports étrangers (essentiellement les Européens et les Sud-Africains), mais tout autant les résidents d'origine indienne, Ainsi, au cours de son meeting politique de mai 1995 à Bukoba, Mrema a insisté sur le fait qu'il ne fallait nullement confondre indigénisation et apartheid (Bancet 2004). 46 21 titulaires ou non de la nationalité tanzanienne ; étaient seuls considérés comme des nationaux authentiques les Africains autochtones. La résonance « raciale » de ces définitions fut encore renforcée après que le révérend Mtikila, chef du Democratic Party, eût introduit dans l'espace public le terme de gabacholi (« voleur » en langue gujarâtî) pour désigner les hommes d'affaires et les grands commerçants in , accréditant l'association systématique entre immigrés d'origine indienne et comportement déprédateur ou spoliateur (Crozon 1998). Il est juste de reconnaître que la politique prônée par l'uzawa, non seulement ne fit pas l'unanimité en Tanzanie, mais donna lieu à l'époque à d'âpres débats, y compris dans les médias (Bancet 2004). Nombre d'intellectuels et de journalistes déclarèrent que la promotion de l'uzawa allait renforcer la collusion entre le monde politique et le monde des affaires, les politiciens affairistes se donnant ainsi le champ libre dans des opérations de privatisations et spéculations en tout genre. D'autres voix se firent entendre pour souligner qu'en soutenant l'uzawa, les hommes politiques et les partis politiques d'opposition espéraient gagner les voix des petits entrepreneurs privés locaux. Un dirigeant d'entreprise d'origine indienne, dont le nom n'a pas été dévoilé, a très généreusement offert de participer aux frais du mariage de la fille de l'ancien Président de la République Benjamin Mkapa. Ce dernier a dû refuser en raison du scandale que cette affaire aurait pu entraîner. La nature des liens entretenus entre politiciens africains et certains affairistes indiens ainsi que les sommes versées sont bien évidemment tenues secrètes et ne sont révélées que de manière exceptionnelle à l'occasion de scandales dénoncés par la presse. Il en fut ainsi au Kenya du scandale dit « des diamants Goldenberg » qui éclaboussa au cours des années 1990 quelques hommes d'affaires indiens et plusieurs dirigeants politiques africains (Grignon 1996, Prunier 1998, Otyeno 1998). De tels évènements portent atteinte à la réputation de la communauté indoafricaine dans son ensemble. Pour démentir les préjugés entretenus par les défenseurs de l'uzawa, l'évolution économique témoigne du fait qu'à partir des années 1990, plusieurs grands entrepreneurs d'origine africaine s'imposèrent dans le paysage social tanzanien. Propriétaire et président du groupe IPP Media – qui regroupe des services de conseil financier, des usines d'embouteillage en partenariat avec la compagnie Coca-Cola, des usines de produits d'hygiène, et un ensemble de médias comprenant onze journaux, trois stations radio et une chaîne de télévision opérant en Tanzanie, en Ouganda et au Kenya48 – Reginald A. Mengi s'est ainsi imposé comme une figure de la réussite de l'entreprenariat à l'africaine. Héraut du capitalisme africain en tant qu'ancien président du National Board of Business Accountants and Auditors et actuel président la Confederation of Tanzania Industries (CTI), il participe également (directement ou par le truchement des aux de son groupe) à de nombreuses activités « citoyennes » ou philanthropiques (il est commissaire de la Tanzania Commission for AIDS (TACAIDS) et président du Poverty Alleviation and Environmental Committee (PAEC) ou du National Environment Management Council (NEMC). A côté de ces personnalités fortement médiatisées existe aussi tout un monde de petits commerçants africains bien représentés au coeur de ce poumon commercial que constitue le quartier de Kariakoo à Dar es Salaam Autrefois lieu de concentration du commerce indopakistanais (Vassanji 1994), la rue Uhuru à Kariakoo a changé de visage avec l'installation de nombreux petits commerçants africains. Les journaux du groupe IPP Media sont : The Guardian, The Sunday Observer, The Daily Mail, the Financial Times paraissant en anglais ; Nipashe, Nipashe Jumapili, Alasiri, Kasheshe et Taifa Letu paraissant en swahili. Le groupe IPP Media possède également la chaîne de télévision ITV (Independent Television Ltd) ainsi que les stations de radio Radio One, Radio Uhuru et East Africa Radio. On constate aujourd'hui que les clivages communautaires qui ont exercé leur emprise tout au long de l'histoire de la Tanzanie restent pertinents dans la conscience sociale des individus. Les catégories identitaires intériorisées ont un impact sur les interrelations au quotidien, orientant les attentes et les comportements des individus, lesquels, en retour, contribuent à reproduire ces catégories. Entretiens privés, conversations informelles et observations éclairent ici les tensions économiques et identitaires qui traversent la société tanzanienne actuelle et contribuent à la structurer. Cultiver l'entre soi indien
Dans l'actuelle ville de Dar es Salaam, l'histoire de la présence indienne est inscrite dans les murs. Le centre ville recèle encore quelques bâtiments anciens, maisons de facture anglo-indienne à façades à écrans et frontons ouvragés qui portent le nom de leurs constructeurs. Les divisons anciennes entre la partie occidentale de la ville (hindoue) et la partie orientale (musulmane) existent toujours. La recherche de la proximité avec les lieux de culte et les écoles, ainsi qu'un regroupement communautaire toujours d'actualité, participent à cette bipolarisation. Ainsi, dans la partie occidentale, Kisutu street concentre à la fois les temples hindous des différentes communautés (Jaïns, Swâminarayan, Bathia, Lohana), des associations communautaires et des écoles hindoues, aujourd'hui ouvertes à un public plus large. En allant vers l'Océan, le quartier musulman accueille autour des mosquées sunnite et chiite une population aux origines plus diverses (indo-pakistanaise, arabe, comorienne, afro-shirazi). Les mosquées des communautés Bohra et des Ismaéliens de l'Aga Khan sont fréquentées quasi exclusivement par des Indo-Pakistanais, fort peu d'Africains étant adeptes de ces confessions. L'ancienne puissance des musulmans ismaéliens de l'Aga Khan est attestée par l'immense bâtiment de type colonial de Mosque street, qui abrite toujours les activités associatives de la communauté. Les familles d'origine indienne, dans leur grande majorité, envoient leurs enfants dans les écoles privées proches du centre, telles les écoles primaire et secondaire Aga Khan, les écoles hindoues de Kisutu street ou l'école islamique Al Muntazir, voire l'International School of Tanganyika, école privée accueillant enfants appartenant aux familles privilégiées (diplomates, expatriés, politiciens et grands commerçants). La recherche d'une éducation de qualité, que les écoles publiques ne peuvent dispenser (Bonini 2003), explique aussi bien ce communautarisme scolaire que le souhait de préserver et de valoriser une identité sociale et culturelle à part. 24 Mais les évolutions récentes se conjuguent à l'histoire ancienne pour donner un cachet particulier au centre de Dar es Salaam. Boutiques, cafés, bureaux de change, petits supermarchés, restaurants, tea-rooms ou cafés Internet sont pour la plupart tenus par des patrons d'origine indo-pakistanaise. Des petits restaurants proposent des spécialités culinaires indiennes classiques, comme les chapati, les sambusa ou les bagia (croquettes à base de farine de haricots secs), devenus aujourd'hui des éléments courants de la cuisine tanzanienne, mais aussi des en-cas comme les farari petis, les sabudanawada ou les batata wada49 par exemple, ainsi que des plats complets et des confiseries introuvables dans les autres quartiers de la ville. Des femmes hindoues portant le sari, des Bohras vêtues de la burka50 ou de jeunes femmes indiennes de toute confession habillées à l'occidentale font leurs achats de primeurs au petit marché raffiné de la rue Zanaki. Au milieu de l'après-midi, les nounous africaines tiennent par la main les petits écoliers indiens qui rentrent de l'école ou se rendent à leurs activités extrascolaires. En d'autres termes, le centre-ville constitue un microcosme indien qui semble tout droit issu de la période coloniale. La ségrégation urbaine opère toujours selon des lignes communautaires. Certes, une grande majorité des maisons du centre ville sont aujourd'hui encore la propriété de la National Housing Corporation (NHC). Les résidents, qui sont parfois les anciens propriétaires de ces maisons, paient un loyer à l'Etat. Certaines familles vivent entassées dans des maisons vétustes plutôt que d'avoir à quitter les lieux. Jusqu'à présent, les stratégies de l'entre soi ont aisément permis de décourager les non Indiens de s'installer. Les pratiques de sous-location plutôt que de cessation de bail et la surtarification des sous-locations sont monnaie courante. Elles permettent de sélectionner insidieusement les locataires en fonction de leur appartenance communautaire. A Upanga, le premier quartier d'expansion de la ville de Dar es am, habité par une majorité d'immigrés indiens, on observe les mêmes pratiques de ségrégation par les prix et par l'entretien des réseaux familiaux et communautaires. Quant aux familles les plus riches, elles ont élu domicile sur la péninsule d'Oyster Bay, grande zone résidentielle partagée entre les expatriés européens et les opulentes familles indo-pakistanaises, arabes ou africaines appartenant aux milieux d'affaires et à la classe politique. Aujourd'hui, pourtant, les habitants du centre, mais aussi du quartier de Kariakoo, doivent faire face à la vente des maisons détenues par la NHC Ces noms désignent des en-cas épicés frits, à base d'oignons (sabudanawada et farari petis) ou de pommes de terres (batata wada). La burka des femmes bohras ne ressemble guère à la tenue du même nom portée par de nombreuses musulmanes, long pardessus noir couvrant le corps de la tête aux pieds. Elle consiste en effet en un ensemble de deux pièces aux couleurs pastel, un haut sans manche assorti d'un capuchon rabattu sur la tête pour couvrir les cheveux, auquel est adjointe une jupe large descendant jusqu'aux chevilles. datant du début du siècle dernier. Beaucoup d'anciens propriétaires ne possèdent pas le capital suffisant pour racheter leurs maisons, et certains se plaignent de leur mise en vente en sous-main. De nouveaux propriétaires, zanzibarites ou arabes, acquièrent ces maisons pour les détruire et les remplacer par des immeubles flambant neufs à quatre ou cinq étages, copies à bas prix du style architectural de la péninsule arabique (Calas 2006). Les histoires tragiques de familles qui assistent impuissantes au rachat et à la destruction de leur maison familiale ne manquent pas. Les modes de fréquentation des lieux de sociabilité témoignent aussi du repli communautaire indien. Certes, les différences de niveaux de vie jouent largement dans le choix des distractions et des sorties en ville. Les hôtels et les restaurants chics de la péninsule (Seacliff, Golden Tulip) sont fréquentés par les hommes d'affaires, les commerçants, les banquiers ou les hauts fonctionnaires quelles que soient leurs origines. Les enfants de la bourgeoisie locale se retrouvent dans les boîtes de nuits huppées de la ville (Garden Bistro). Mais on constate des préférences marquées selon les origines communautaires. De multiples associations attachées aux différentes communautés religieuses entretiennent des cercles sportifs, des groupes d'animation pour les femmes et des mouvements pour les jeunes, tous généralement très actifs. En fonction de positions socio-économiques, les Indiens fréquentent des clubs privés, sortent dans les grands restaurants indiens de la ville (Anghiti, Barbecue Village, Khana Khazana) et dans les hôtels de la côte nord de Dar es Salaam (White Sands, Jangwani), ou dégustent un poulet tandoori dans les petits restaurants ou sur les trottoirs du centre-ville, envahis, le soir venu, par des tables et des chaises en plastique. Stéréotypes, construction de l'autre et construction de soi
La ségrégation sociale et urbaine qui caractérise aujourd'hui les rapports entre IndoTanzaniens et Africains est le produit des anciennes dissymétries de pouvoir socioéconomique, aussi bien que d'une histoire plus récente de mise au ban politique, de chasse aux sorcières économiques et des stratégies d'entre soi. Reposant sur des représentations sociales très tranchées (Maurer 2004) de ces deux catégories identitaires, elle contribue à les reproduire inlassablement. Aux yeux de nombreux Africains, la richesse et l'avarice vont de pair chez les Indiens. Les stéréotypes selon lesquels les Indiens seraient tous riches, grâce à leurs activités de commerce, résistent à une réalité multiforme constituée certes de commerçants aisés, mais aussi de professeurs, de petits fonctionnaires, de boutiquiers aux fins de mois difficiles, et de modestes artisans pauvres. Quoique minoritaires dans leurs communautés d'appartenance, de nombreuses familles d'origine indienne doivent leur survie à la générosité de leurs coreligionnaires. Quant au cliché incriminant l'avarice (et l'exploitation de son prochain), il participe à des stéréotypes très généraux appliqués ailleurs dans le monde à de nombreuses minorités commerçantes. Certes, il n'est pas question de contester l'emprise toujours présente des immigrés d'origine indienne dans l'économie urbaine. Même en prenant en compte l'essor récent et spectaculaire des petits et moyens commerces africains (voir supra), dans le centre ville commerçant de Dar es Salaam, les propriétaires des commerces sont encore très majoritairement d'origine indienne. En dehors des cafés Internet, souvent tenus directement par de jeunes immigrés d'origine indo-pakistanaise, la plupart des commerces emploient du personnel africains : serveurs, cuisiniers, tailleurs, vendeurs ou gardiens. Dans les appartements résidentiels, les employés 27 de maison sont eux aussi africains. Tous se plaignent, il est vrai, des faibles salaires reçus, insuffisants pour vivre. Les chiffres varient, en fonction des métiers et des compétences, mais aussi des patrons eux-mêmes. Ils s'échelonneraient, selon les dires des employés interrogés, de 10.000 à 20.000 shillings pour le personnel de maison et de 30.000 à 50.000 shillings pour les travailleurs, soit de 6 à 35 euros par mois. Les grands patrons d'origine indienne sont eux aussi réputés pour payer leurs salariés au rabais, en comparaison – disent les Africains – des salaires versés par les grands patrons africains. Les clichés répandus chez de nombreux Indo-Tanzaniens pour dépeindre les Africains sont l'inverse exact de ceux utilisés par les Africains pour dépeindre les Indiens. La pauvreté des Africains, étant la conséquence de leur paresse, ne mériterait pas qu'on s'en apitoie. Pour les mettre au travail, il faudrait recourir aux dures exhortations, aux réprimandes, voire aux insultes. La condamnation de la paresse est d'autant plus forte parmi les Indiens que le travail est, pour ces derniers, une valeur importante. Certaines personnes interrogées rappellent que les premiers immigrés indiens ont travaillé dur dans le Tanganyika colonial pour acquérir et ensuite maintenir ou développer leur capital. D'autres reviennent sur les mesures prises contre les capitalistes pendant la période socialiste pour souligner l'importance de l'accumulation financière par le travail, protection contre les aléas politiques51. Contrairement aux Indo-Pakistanais, honnêtes en affaires, les Africains sont également décrits comme fréquemment voleurs, soit par nature, soit par nécessité, en plus d'être paresseux et profiteurs. C'est pour cela que, dans les boutiques et les restaurants, le personnel africain a rarement accès à la caisse. Ces représentations stéréotypées sur le comportement des uns et des autres au travail alimentent des comportements tout aussi stéréotypés (« la gentillesse ou la générosité à l'égard des paresseux et des voleurs ne sert qu'à encourager les indélicatesses ») ainsi qu'une hiérarchie ethnique implicite. De nombreux exemples, empruntés à des pratiques quotidiennes vécues par les interlocuteurs, sont présentés comme les preuves de l'existence d'une telle hiérarchie dans les modes de penser des Tanzaniens d'origine indienne. Dans une boutique, un Africain serait toujours servi après un Indien, un Arabe ou un Blanc, quel que soit l'ordre d'arrivée des personnes ; on le ferait toujours attendre, même sans raison évidente. Aux dires des Indiens, un Africa se contenterait de plats grossièrement préparés, ne cherchant pas tant la qualité du goût que la satisfaction d'être repu. Un Indien témoignerait toujours de la condescendance à l'égard d'un Africain, même À ce sujet, voir aussi l'ouvrage de Lobo (2000) qui rassemble des récits de vie de familles indiennes venues s'installer en Tanzanie, ainsi que celui de Oonk (2004). 51 28 lorsque l'un et l'autre ont le même niveau d'éducation. Les Indiens n'emprunteraient pas 52 les transports en commun afin de ne pas avoir à côtoyer les Africains. Ils ne feraient pas d'effort pour bien parler swahili afin de montrer qu'ils sont différents, voire supérieurs, le swahili étant considéré comme une langue inférieure. Lorsqu'on les interroge, la plupart des Indiens de Dar es Salaam démentent non seulement l'existence d'une telle hiérarchie ethnique, mais aussi les comportements condescendants et méprisants qu'on leur impute. Les remarques faites à l'égard de leur personnel seraient celles de tout patron s'adressant à un employé fautif ou incompétent. Les activités philanthropiques dans lesquelles de nombreuses personnalités de la communauté indienne seraient engagées témoigneraient d'ailleurs de leur compassion à l'égard des populations africaines pauvres et de leur implication dans le développement du pays. L'ouverture des écoles et des hôpitaux privés de la communauté indienne à tout public, sans discrimination d'origine raciale ou communautaire, indiquerait ouvertement l'absence de pratiques d'exclusion. Bref, en dehors de quelques individus mal intentionnés, les Indiens dans leur ensemble traiteraient les Africains avec le respect qui est dû à des individus de même valeur. Venant déjà appuyer les revendications des Indiens concernant la légitimité de leur présence en Tanzanie, la référence à l'idéal national (pluriculturel et pluriracial ) servirait enfin de référence explicite à des comportements citoyens de caractère exemplaire. Dans ce méli-mélo de stéréotypes et de clichés identitaires, mélange d'expériences personnelles, de rumeurs persistantes, de mémoires des événements passés et de ressentiments renforcés par des attaques politiciennes récurrentes, vouloir départager le vrai du faux, la réalité du mensonge est une entreprise vouée par avance à l'échec. En effet, ce que la production des imaginaires essentialistes de l'Autre donne à voir au chercheur, c'est la force de l'institutionnalisation et de l'incorporation des distinctions entre groupes sociaux, ici entretenus par des c és de caractère ethnico-racial. Ces distinctions ont été inscrites dans l'espace physique et dans la division du travail en même temps qu'elles font partie du sens commun et sont tenues comme allant de soi, donc légitimes et non questionnées (Bourdieu 1980). La constance des conditions de vie objectives qui départagent Africains et Indiens, malgré les fléchissements évoqués précédemment, et les représentations de l'Autre qui en découlent, participent au maintien des hiérarchies socioéconomiques et communautaires nationales. « Africains » et « Indiens » sont les Un professeur africain se fit l'écho de comportements racistes à l'égard des Africains en témoignant avoir donné des cours particuliers à un élève indopakistanais dans le garage attenant au domicile familial, et non dans le salon ou le bureau. 52 29 signifiants qui renvoient à deux entités socioculturelles distinctes, chacun présupposant la cohésion et l'homogénéité interne de l'autre.
| 8,363
|
tel-03770242-These_UTC_Helga_Lendrin.txt_26
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Université Virtuelle Africaine : le paradoxe du processus d’industrialisation de l’enseignement supérieur en Afrique Subsaharienne. Sciences de l'information et de la communication. Université de Technologie de Compiègne, 2021. Français. ⟨NNT : 2021COMP2627⟩. ⟨tel-03770242⟩
|
None
|
French
|
Spoken
| 6,635
| 10,749
|
Selon P. G. Altbach et J. Salmi (2012), le Nigéria faisant partie de l’OPEP, sa croissance économique est en grande partie attribuable à l’extraction du pétrole qui ne requiert que peu de main d’œuvre qualifiée, ce qui induit l’absence d’un marché du travail demandeur de recherche de pointe, de transfert de technologie, et de diplômés très qualifiés issus de l’université et rend difficile l’objectif d’excellence visé par l’Université d’Ibadan pour qui héberger l’institut de l’UPA spécialisé dans les Sciences de la Vie et de la Terre (PAULESI) constitue donc une opportunité (p.254). L’Université de Tlemcen en Algérie, hôte de l’Institut PAUWES
La modernité des infrastructures universitaires ainsi que le dynamisme de la vie universitaire sont aussi des critères importants comme en témoigne l’établissement de l’institut UPA pour les sciences de l’eau et de l’énergie (PAUWES) à l’Université de Tlemcen en Algérie. En effet, l’Université de Tlemcen qui accueille l’Institut PAUWES compte (en 2017) 42.000 étudiants, 8 facultés, 2 écoles d’élite en Science, et dispose de « bâtiments de pointe et de centres informatiques, d’une grande bibliothèque équipée de plusieurs laboratoires avec des équipements d’analyse de haut niveau et d’un centre d’incubation pour donner vie aux idées. Les résidences d’étudiants sont à proximité de l’université, et le transport est disponible depuis et vers le campus »355. De plus, une interview du directeur de l’Institut PAUWES met en avant d’une part la capacité d’accueil de l’Université de Tlemcen qui « peut accueillir 1000 étudiants environs, mettre à disposition des maîtres de conférences, un corps professoral et un staff technique »356, et d’autre part « l’esprit communautaire » de la vie étudiante avec des espaces de socialisation pour les étudiants. C’est même l’ensemble du milieu étudiant qui est mis en avant puisque l’un des objectifs est aussi de créer un réseau d’anciens étudiants, de favoriser l’entrée dans la vie professionnelle et de développer des liens avec l’industrie. Ainsi, le milieu universitaire physique, tant infrastructurel que social et cultutrel, semble indispensable à l’excellence visée par l’UPA. 355 Institut PAUWES, site internet au 29 juillet 2017, page dédiée à la « Vie sur le campus »: http://web.archive.org/web/20170729010552/http://pauwes.univ-tlemcen.dz/fr/campus-life/ 356 Institut PAUWES, site internet au 22 août 2017, page dédiée à « 5 questions au directeur »; http://web archive org/web/2017 /http://pauwes
Les enseignements de l’Institut PAUWES sont dispensés en Anglais et des cours de langue intensifs sont proposés aux étudiants ; l’onglet « Programme d’études » du site de PAUWES indique qu’« une grande variété de méthodes d’enseignement sont employés, y compris des conférences, des tutoriels, des cours pratiques, des séminaires, des stages, des visites sur le terrain »357. Ainsi, avec PAUWES, la diversité des modalités d’enseignement, la modernité des infrastructures, et le dynamisme de la vie universitaire apparaissent comme des facteurs importants pour l’excellence visée par les instituts de l’UPA. L’Université de Yaoundé II au Cameroun, hôte de l’institut PAUGHSS
En ce qui concerne la localisation de l’institut UPA pour la gouvernance, les sciences humaines et les sciences sociales (PAUGHSS) au Cameroun, les critères sont moins évidents puisque l’Institut PAUGHSS est accueilli à l’Université de Yaoundé II alors que l’étude de cas mené par l’OCDE (Woods, Chanie, Padayachee, Olson, 2012, p.9-10) établi l’Université de Yaoundé I comme la « mère » de toutes les universités du Cameroun. Toutefois, les Universités de Yaoundé I et II sont toutes deux issues de la scission en 1993 de l’Université de Yaoundé construite avec l’aide de la France en 1962, et se complètent en termes de domaines disciplinaires : l’Université de Yaoundé I comprend la Faculté des Arts, Lettres et Sciences Humaines, la Faculté des Sciences, la Faculté de Médecine et de Sciences Biomédicales et la Faculté des Sciences de l'Education ; l’Université de Yaoundé II est constituée de la Faculté des sciences juridiques et politiques, et de la Faculté des sciences économiques et de gestion. Malgré tout, l’OCDE (Woods, Chanie, Padayachee, Olson, 2012) reste assez critique car c’est à Yaoundé I que se trouve la principale bibliothèque de recherche nationale du Cameroun dotée d'une structure fonctionnelle avec de longues heures d'ouverture, un accès Wi-Fi et des ordinateurs pour les étudiants. En outre, si le campus de Yaoundé II dispose de plusieurs bibliothèques départementales et d’une bibliothèque principale, celle-ci est située dans une installation temporaire de mauvaise qualité. Ainsi, selon l’OCDE (Woods, Chanie, Padayachee, Olson, 2012, p.10), les publications n'ont pas été suffisamment réapprovisionnées depuis 1980 et le bâtiment doit être rénové. Cependant, le site de Yaoundé II dispose de trois laboratoires informatiques : le plus petit donne accès à des revues scientifiques et à des bases de données accessibles par abonnement ; le deuxième est destiné aux étudiants participant à des cours d'apprentissage à distance et est équipé d'installations de vidéoconférence ; le troisième centre informatique, gratuitement ouvert à tous les étudiants, est composé de 50 ordinateurs et d’un accès Wi-Fi à internet. De plus, des services Wi-Fi, permettant un accès à Internet en dehors du centre informatique, sont gratuitement offerts aux étudiants. Par ailleurs, les salles de classe ont été rénovées et sont suffisantes au moment de l’étude. Le logement des étudiants est prévu sur les sites de Yaoundé I et II même si la plupart des résidences mériteraient d'être rénovées et modernisées. De plus, du fait du nombre croissant d'étudiants, de nouvelles résidences sont en cours de construction. Dans le domaine de la recherche, les sites de Yaoundé I et II regroupe 138 personnes qualifiées pour la recherche supérieure dont 51 professeurs titulaires et 87 professeurs associés. Les chercheurs de Yaoundé II publient dans sept revues scientifiques et la Faculté des Lettres et des Sciences humaines de Yaoundé-I publie dans deux journaux en plus des publications au niveau départemental. Une recherche dans Google Scholar cite 47 des professeurs et 72 des professeurs associés. Entre 2000 et 357 Institut PAUWES, site internet au 28 juin 2016, page dédiée au « Programme d’études » ; http://web.archive.org/web/20160628095748/http://pauwes.univ-tlemcen.dz/fr/study-programmes/ 372 2008, la Faculté de droit et de sciences politiques de Yaoundé II a produit 52 thèses de doctorat, auxquelles s’ajoutent les 42 thèses soutenues à la Faculté des arts et des sciences humaines de Yaoundé I au cours de la période 2005-2007. Ainsi, ce sont en moyenne 29 thèses de doctorat qui ont été soutenues chaque année en sciences sociales et humaines et qui mériteraient d’être publiées. En termes de réseau et partenaires, l'Université de Yaoundé II coopère avec un large éventail de parties prenantes, principalement francophones mais aussi la Zhejiang Normal University of China et la Fondation Alexander von Humboldt d'Allemagne. En termes de capacité administrative, l'Institut panafricain de gouvernance universitaire (IPAGU) a travaillé depuis 2009 avec des universités africaines, dont Yaoundé II, pour moderniser la gouvernance dans les domaines de la gestion, de l'analyse et d'évaluation des établissements. De plus, si le Cameroun est classé 146ème sur 178 pays dans l'indice de perception de la corruption et le baromètre mondial de Transparency International 2009, l’Université de Yaoundé II participe au Programme national pour la Gouvernance (PNG) hé é au sein du Premier ministère de lutte contre la corruption et la mauvaise gestion de l'administration publique. Pour son développement économique, l’Université de Yaoundé II est en lien avec 12 partenaires régionaux et mondiaux et 10 partenaires camerounais. L'institution est donc bien reliée même s’il n'y a pas de données disponibles sur la mesure dans laquelle les chercheurs travaillent avec l'industrie et les PME. De plus, le ministère camerounais de l'Enseignement supérieur et le ministère des Finances et de la Planification économique se sont engagés à soutenir l'Institut de l’UPA. Les données sur le montant exact ne sont pas disponibles mais le gouvernement camerounais a alloué environ 15,3 millions d'euros depuis 2009 à la recherche universitaire et le ministre de l'Enseignement supérieur a confirmé en 2011 qu'environ 10,7 millions d'euros seraient consacrés à la recherche dans les universités d'État. L’Université de Yaoundé II présente donc plusieurs dispositions favorables à l’hébergement de l’Institut PAUGHSS, notamment en termes de capacité de recherche et de gouvernance. Néanmoins, en accord avec les critiques formulées par le rapport pour l’OCDE de D. Woods, P. Chanie, A. Padayachee et A. Olson (2012), un doctorant interviewé se montre lui aussi critique en ce qui concerne le choix de l’Université de Yaoundé II : « I still think it should have been hosted at any other place or University because the University of Yaounde II that hosts this institute doesn’t have that capacity. Its facilities are not that good to meet international standards and host an international program of this caliber » (entretien PAU-15, PAUGHSS, PhD, promo 2016). Il semble intéressant de noter qu’alors que le Kenya et le Nigéria sont tous deux des pays anglophones, le Cameroun est généralement considéré comme francophone. Cependant sa colonisation par l’Allemagne puis son placement, à l’issue de la Première guerre mondiale, sous la tutelle de la France pour sa partie orientale, et de l’Angleterre pour sa partie orientale, explique que le Cameroun soit aujourd’hui à la fois membre de droit de l'Organisation Internationale de la Francophonie (OIF) et du Commonwealth et présente des campus francophones comme celui de Yaoundé, et des campus anglophones comme celui de Buea (UA, 2016, 30 mars) dont l’université participe à la délivrance des premiers diplômes de l’Institut PAUGHSS en Master d’Interprétation et de Traduction. De plus, il est intéressant de remarquer que l'IPAGU était une initiative conjointe de l'Agence universitaire de la Francophonie (AUF), de l'Association des Universités du Commonwealth (ACU) et du Ministère de l'Enseignement Supérieur du Cameroun. L'IPAGU a été inauguré le 15 juin 2010 et se 373 trouve sur le campus de l'université de Yaoundé II (Guimont, 2010, 17 juin). En 2013, l'IPAGU change de nom et devient l'Institut de la Francophonie pour la gouvernance universitaire (IFGU) (CampusJeunes, 2012, s.d.). Ainsi, au moment du choix de la localisation de l’instut PAUGHSS à l’Université de Yaoundé II, celle-ci accueille précisément l’institut de l'Agence Universitaire de la Francophonie dont le champ disciplinaire concerne la gouvernance universitaire (Institut de la Francophonie pour la gouvernance universitaire, IFGU). Les partenaires thématiques et scientifiques
La régionalisation des disciplines a une fonction importante pour le développement de l’Université Panafricaine (UPA) d’une part parce qu’elle définie le champ des possibles partenaires thématiques pour chaque institut selon sa discipline, d’autre part parce que les partenaires thématiques et scientifiques sont les seuls partenaires non africains à participer, dès son lancement, au financement des instituts de l’UPA358. Toutefois, cela semble constituer une externalisation institutionnelle importante puisque « chaque réseau thématique des instituts et centres de l’UPA dispose d’une équipe de partenaires dédiés coordonnée par un partenaire thématique chef de file (PTCF) qui a vocation à promouvoir le réseau thématique pertinent, à lui apporter un soutien technique important et à mobiliser des ressources pour son financement » (BAD, 2013, juillet, UPA, p.22). Selon l’étude de cas menée pour l’OCDE par D. Woods, P. Chanie, A. Padayachee et A. Olson (2012), la Chine a « signé un accord pour soutenir le Fonds pour les sciences fondamentales, la technologie et l'innovation au Kenya [PAUSTI]. L'Allemagne soutient l'Institut de l'Eau, de l'Énergie et du changement climatique en Algérie [PAUWES], tandis que l'Inde et le Japon sont les principaux partenaires thématiques pour les sciences de la Vie et de la Terre au Nigéria [PAULESI], la Suède est le principal partenaire thématique pour la Gouvernance et les sciences Humaines et Sociales [PAUGHSS] et l'Agence spatiale européenne pour les sciences de l'Espace et des Télécommunications [PAUSS]» (p.8, traduction libre). Toutefois, selon un article de C. Liang (2014, 26 avril) relayant l’Agence de presse Xinhua (Chine), si l'Agence suédoise de développement de la coopération internationale est bien le partenaire thématique de PAUGHSS (Cameroun), et l’Allemagne le partenaire de thématique de PAUWES (Algérie), ce n’est pas la Chine mais l’Agence Japonaise de Coopération Internationale (JICA) qui est le partenaire thématique de l’Institut PAUSTI (Kenya), tandis que l’Institut PAULESI (Nigéria), insatisfait de la « coopération avec l'Inde, jugée « non proactive » » serait à la recherche d’un nouveau partenaire, ce que confirme un étudiant interviewé ayant déclaré « Our scientific partner, India, never showed any interest in any of us students. The Director of the Institute constantly complained about the partner and said moves were in place to change the partner » (entretien PAU-12, PAULESI, Master, promo 2016). Selon l’Union Africaine (UA, 2013, 30 octobre), les partenaires thématiques principaux censés accompagner techniquement et financièrement un institut donné selon sa thématique disciplinaire sont bien, l’Allemagne (GIZ, KFW et DAAD) pour PAUWES en Algérie, la Suède (SIDA) pour PAUGHSS au Cameroun, le Japon (JICA) pour PAUSTI au Kenya, et l’Inde pour PAULESI au Nigéria. Cependant, « Parmi les quatre partenaires thématiques initialement identifiés, le soutien de l'Allemagne reste le plus important, suivi de celui du Japon. La Suède a soutenu le projet PAUGHSS au cours de la phase de 358 Union Africaine, site internet au 20 septembre 2016, page dédiée à la « Education Division » au 20 septembre 2016, op. citée 374 lancement, tandis que l’Inde n’a pas encore apporté son appui » (UPA, 2019, plan stratégique 20202024, p.17). Selon D. Woods, P. Chanie, A. Padayachee et A. Olson (2012), l’Agence Suédoise de Développement International (SIDA), partenaire thématique de l’Institut PAUGHSS du Cameroun, « a été invitée à soutenir l'UPA en fournissant environ 552 000 euros pour couvrir les coûts initiaux de démarrage » (p.12, traduction libre). Selon l’article de C. Liang (2014, 26 avril), l’Agence Japonaise de Coopération Internationale (JICA) apporte un soutien technique indirect à l’Institut PAUSTI par le renforcement des capacités de l’université d’accueil, l’Université Jomo Kenyatta, tandis que l’Allemagne (GIZ, KFW, DAAD)359, le partenaire thématique de l’Institut PAUWES, a octroyé 20 millions d’euros pour les bourses étudiantes, la réhabilitation des infrastructures, l’équipement scientifique et la coopération interuniversitaire. Cependant, selon l’Union Africaine (2012, avril,, report on the PAU), la « CUA [Commission de l’Union Africaine] a obtenu le soutien de partenaires, y compris les engagements suivants : 2 millions d'euros de la GIZ ; et 500 000 euros de la Suède. L'Espagne contribue également aux activités de l'UPA. Des discussions ont eu lieu avec le Japon, l'Inde, la Chine et l'USAID et des engagements sont attendus » (p.5, traduction libre). Néanmoins, le rôle des partenaires thématiques ne se limite pas au soutien financier ou infrastructurel comme en témoigne l’Allemagne, partenaire thématique de l’Institut PAUWES en Algérie. En effet, selon un article de K. Boumediene (2015, 18 octobre), la Banque de Développement allemande (KfW) finance des bourses d’étude, des équipements et des infrastructures, la Société allemande de coopération internationale (GIZ) conseille et soutient l’Institut PAUWES dans des domaines « tels que la mise en place institutionnelle et opérationnelle de l’institut, le développement des programmes internationaux de master, la coopération avec le secteur public, le recrutement des professeurs et la sélection des étudiants » (Boumediene, 2015, 18 octobre, p.2), tandis que l’Office allemand d’échanges universitaires (DAAD) apporte son appui au recrutement (Winkler, s.d.) et au financement des enseignants ainsi qu’à la mise en réseau de l’institut avec les universités allemandes et internationales. Enfin, pour promouvoir l’employabilité des étudiants, l’Institut PAUWES s’est associé avec la chambre algéro-allemande de commerce et d’industrie (AHK). Par ailleurs, l’« UE [Union Européenne] soutient l’UPA par le versement de bourses pendant la phase de lancement, et une contribution au processus de planification stratégique » (UPA, 2019, plan stratégique 2020-2024, p.17). Selon l’Union Africaine (UA, 2013, 30 octobre), op. citée, les institutions allemandes partenaires sont : le « Deutsche Gesellschaft für Internationale Zusammenarbeit » (GIZ) soit l'agence de coopération internationale allemande pour le développement https://www.giz.de/en/html/index.html ; la « Kreditanstalt für Wiederaufbau » (KFW) soit l’établissement de crédit pour la reconstruction https://www.kfwentwicklungsbank.de/International-financing/KfW-Entwicklungsbank/ ; et le « Deutscher Akademischer Austauschdienst » (DAAD), soit l’Office allemand d'échanges universitaires qui est une association de droit privé dont les membres sont les établissements d'enseignement supérieur allemands https://www.daad.de/en/information-services-for-higher-education-institutions/further-information-on-daadprogrammes/pauwes/
Le financement du projet
Selon le site de l’Union Africaine dédié à l’éducation360 sur lequel on retrouve l’ancienne « Division de l’éducation » ainsi qu’une page dédiée à l’Université Panafricaine (UPA), les sources de financement initialement prévues pour l’Université Panafricaine (UPA) sont les suivantes : - le Fonds de dotation créé sur la base de contributions volontaires des gouvernements des États membres de l’Union Africaine, des Communautés Economiques Régionales (CER), des partenaires au développement et donateurs, et des sources publiques et privées (UA, 2012, juillet, rapport, p.49) ; - les ressources octroyées par la Commission de l’Union Africaine (CUA) pour les bourses d’études, la mobilité et les honoraires du personnel enseignant ; - les ressources octroyées par les pays hôtes pour les infrastructures et les coûts de fonctionnement ; ces ressources pouvant être mobilisées via un partenaire thématique ; - les ressources octroyées par les s thématiques pour le soutien à l’équipement, les coûts académiques et la recherche ; - Les ressources autogénérées issues de l’enseignement et de la recherche des Instituts et des Centres de l’Université Panafricaine. Un article paru sur le site du partenariat Afrique-Union Européenne en 2011 indique également que les principales sources de financement pour le lancement de l’Université Panafricaine (UPA) sont celles issues des pays hôtes, de l’Union Africaine et des partenaires thématiques, mais ajoute qu’une fois en marche, « le réseau aura la possibilité de postuler pour des financements, des activités de renforcement des capacités, des bourses de mobilité ou des aides à la recherche auprès de sources de l'UE, comme les programmes Erasmus Mundus, Edulink, Nyerere et de recherche européenne » (Partenariat Afrique-Union Européenne, 2011, 9 décembre, p.2). Ainsi, l’Université Panafricaine (UPA) pourrait bénéficier d’un financement par la Stratégie conjointe Afrique-Union Européenne (UE)361 dont le rapport 2014 concernant les réalisations indique que l’« UE salue les initiatives comme celles de l’UPA » (Partenariat Afrique-Union Européenne, 2014, p.27). Toutefois, selon l’article de M.M. Lom (2011, 18 août), l’Union Africaine souhaitait que les premiers fonds de financement du projet proviennent des africains eux-mêmes (Union Africaine, États membres volontaires et secteur privé africain) et des partenaires thématiques des instituts de l’UPA, avant de solliciter l’aide des partenaires au développement que sont, d’après l’Union Africaine (2013, 30 octobre) : l’Union européenne, l’UNESCO et le bureau éthiopien de la Banque Africaine de Développement (BAD). En cohérence avec cet objectif, le Conseil exécutif de l’Union Africaine décide d’octroyer « 12 millions 100 mille dollars américains pour l’Université Panafricaine (UPA), qui sera établi comme Fonds spécial » (UA, 2012, juillet, décisions, p.5). Puis en juillet 2013, c’est la Banque Africaine de Développement (BAD) qui décide d’octroyer 45 millions de dollars 362 à l’appui au projet d’Université Panafricaine (UA, 2013, 30 octobre). Cependant, selon le rapport pour l’OCDE D. Woods, P. Chanie, A. Padayachee et A. Olson (2012), la Banque mondiale a initialement accordé 5 millions de dollars pour le lancement de l’UPA (p.8), et si le financement à long terme implique au moins trois bailleurs de fonds dont deux africains (l'Union africaine, l'institution hôte, et le principal partenaire thématique), les deux tiers du financement devraient provenir de ressources internationales (p.14). Pour ces auteurs, cela implique de faibles liens avec l'institution hôte induisant un risque pour l’Institut de l’UPA de se retrouver isolé académiquement et pédagogiquement en même temps qu'il utilise les ressources locales (Woods, Chanie, Padayachee, Olson, 2012, p.14). Toutefois, selon la Banque Africaine de Développement (BAD, 2013, juillet, UPA) les « dépenses renouvelables sont couvertes par les recettes mobilisées par les instituts de l’UPA » (p.31) comme l’illustre le graphique ci-dessous : Source : Banque Africaine de Développement (BAD, 2013, juillet, UPA), op. cité, p.31 En effet, selon la Banque Africaine de Développement (BAD, 2013, juillet, UPA), l’« analyse démontre que : i) les dépenses renouvelables sont couvertes par les frais de scolarité payés par les étudiants à partir de la deuxième année, ce qui montre que le modèle d’activité de l’UPA est cohérent et peut générer à l’avenir des recettes qui pourraient être investies dans d’autres programmes ou activités économiques (projets de recherche et de développement, incubateurs d’entreprises, coopération internationale, activités sociales) ; ii) après une première période (quinquennale) au cours de laquelle ’UPA sera subventionnée par la BAD et d’autres bailleurs de fonds stratégiques, le projet peut être viable (par exemple, au cours de la sixième année, seuls 60 % des frais de scolarité seraient nécessaires pour couvrir les dépenses renouvelables) ; et iii) les dépenses renouvelables par étudiant pour ces programmes de haut niveau sont raisonnables. Par ailleurs, les dépenses renouvelables moyennes par étudiant, estimées au départ à 11 662 USD, baisseraient pour s’établir à 4 400 USD au cours de la période quinquennale concernée. La baisse du coût marginal montre que l’UPA est viable » (p.31-32). De plus, la Banque Africaine de Développement (BAD, 2013, juillet, UPA) note que « le projet prévoit la participation d’universités privées qualifiées aux réseaux thématiques. Le renforcement des capacités de planification, de gestion et de suivi au niveau tant de l’UPA que des instituts sera financé 362 45 millions de dollars équivalents à 30 millions d’UC 377 par le truchement de la formation et de l’assistance technique. L’on estime qu’au terme de cet investissement et de la période d’exploitation initiale, l’UPA sera autonome grâce aux frais de scolarité, au financement du secteur privé et à la fourniture de services professionnels par ses instituts » (p.31), ce qu’illustre le graphique précédent. Ainsi, comme dans le cas de l’Université Virtuelle Africaine (UVA), l’autofinancement de l’Université Panafricaine (UPA) repose à terme sur les frais de scolarité payés par les étudiants, tandis que son lancement est financé par la Banque Africaine de Développement (BAD).
Le financement du projet par la Banque Africaine de Développement (BAD)
Selon le calendrier indiqué par la Banque Africaine de Développement (BAD, 2013, juillet, UPA), le plan de financement devait être lancé en novembre 2013 (p.30) et le projet s’achevant au 31 décembre 2018 (p.5), le dernier décaissement était prévu pour le 30 juin 2019 (p.5) pour un coût total de 102,83 millions d’UC (p.5), soit 154,245363 millions de dollars répartis sur les différents financeurs comme l’indique le tableau ci-dessous : Source : Banque Africaine de Développement (BAD, 2013, juillet, UPA), op. cité, p.5 PTCF : Parten
aire
th
ématique
chef de file
Le financement des instituts
Les montants des financements de la Banque Africaine de Développement (BAD, 2013, juillet, UPA) sont variables selon l’institution hôte et selon la composante du projet qu’elles hébergent et se répartissent selon 3 composantes. Le coût total de l’appui aux programmes de sciences et technologie est estimé à 78,65 millions d’UC (soit près de 117,975 millions de dollars) dont 19,23 millions d’UC (soit 28,845 millions de dollars représentant 24.45% du coût total) sont financés par la Banque Africaine de Développement (BAD). Ce financement concerne364 : l’Institut PAUSTI pour les sciences fondamentales, la technologie et l’innovation abrité par l’Université Jomo Kenyatta, à Nairobi (Kenya) ; et l’Institut PAULESI pour les sciences de la terre et de la vie, notamment la santé et l’agriculture hébergé à l’Université d’Ibadan, au Nigeria. Parmi les activités concernées par ce financement se trouvent aussi « la promotion de la cybersanté et de la « m-santé » ; la promotion des liens avec le secteur privé ; et l’élaboration du contenu des programmes d’apprentissage en ligne » (BAD, 2013, juillet, UPA, p.16). Le coût total de l’appui aux programmes de gouvernance et d’intégration régionale est estimé à 14,67 millions d’UC (soit 22,005 millions de dollars) dont 4 millions d’UC (soit 6 millions de dollars représentant 27.27% du coût total) financés par la Banque Africaine de Développement (BAD). Ce 363 Banque Africaine de Développement (BAD, 2013, juillet, UPA), op. cité ; p.3 : 1 UC = 1,5 USD Le rapport de la BAD (2013, juillet, UPA) concerne uniquement les 3 premiers instituts lancés par l’UA (PAUSTI, PAULESI, PAUGHSS), par suite, l’Institut pour les Sciences de l’Eau, de l’énérgie et du changement climatique (PAUWES) n’est pas mentionné dans ce rapport. 364 378 financement concerne l’Institut pour la gouvernance, les sciences humaines et les sciences sociales, PAUGHSS hébergé à l’Université de Yaoundé II, au Cameroun. Là aussi, parmi les activités concernées se trouvent « la promotion des liens avec le secteur privé ; et l’élaboration du contenu des programmes d’apprentissage en ligne » (BAD, 2013, juillet, UPA, p.16), mais pas la « m-santé ». Enfin, la troisième composante du financement est dédiée à l’appui à la gestion de l’UPA et à l’exécution du projet de l’UPA pour un coût total estimé à 9,5 millions d’UC (14,25 millions de dollars) dont 6,77 millions d’UC (soit 10,155 millions de dollars représentant 71.26% du coût total) financés par la Banque Africaine de Développement (BAD). Comme le résume le tableau ci-dessous, la Banque Africaine de Développement (BAD) ne prévoit aucun financement pour « Travaux » dont le coût total est estimé à 5,36 millions de dollars ((BAD, 2013, juillet, UPA, p.20, tableau 2.4.3. a) : Source : Banque Africaine de Développement (BAD, 2013, juillet, UPA), op. cité, p.20 En effet, « les travaux de construction seront à la charge des pays hôtes à la charge des gouvernements des trois pays hôtes (Cameroun, Kenya, Nigéria) » (UA, 2019, décembre, UPA, rapport d’étape, p.7) comme le confirme le financement, fin 2014, de 2,7 millions de dollars octroyé par le gouvernement du Kenya pour la construction d’installations sur le campus d’accueil de l’Institut PAUSTI (Waruru, Nganga, 2014, 12 décembre), et comme le montre également le tableau ci-dessous : Source : Banque Africaine de Développement (BAD, 2013, juillet, UPA), op. cité, p.21 Les indicateurs de performance Conformément aux recommandations du Conseil Exécutif de l’Union Africaine (UA, 2012, juillet, rapport), trois types d’indicateurs pour le suivi de la performance générale sont proposés, « il s’agit d’indicateurs d’impact, de réalisations et de produits » (BAD, 2013, juillet, UPA, p.23). 379 Les trois principaux indicateurs « d’impact » sont les mêmes que ceux que l’on trouve dans les universités européennes : le classement international des universités africaines ; le nombre de brevets par institut de l’UPA par an ; l’insertion professionnelle des diplômés. Les cinq principaux indicateurs de « réalisations » sont : les effectifs d’inscription des étudiants ; la répartition régionale des étudiants ; la répartition par genre ; le système d’homolog des programmes de l’UPA ; la productivité scientifique moyenne des enseignants de l’UPA. Enfin, les quatre indicateurs de « produits » sont : le nombre de centres par réseau thématique ; le pourcentage des programmes élaborés en collaboration avec le secteur privé ; le nombre de brevets pour chaque pôle thématique ; et le nombre des sessions de formation pour le secteur privé organisées sur une base contractuelle. Ainsi, le « suivi et l’évaluation seront une fonction importante du Département des RHST de la CUA, qui sera l’organe de coordination générale du projet. (...) Le projet financera une évaluation d’impact qui fournira des preuves concernant les types d’interventions qui seront (ou non) couronnés de succès afin d’améliorer la performance des institutions d’enseignement supérieur. L’impact des moyens et processus, notamment l’utilisation de l’informatique, le système de bourses et la participation du secteur privé, sera évalué » (BAD, 2013, juillet, UPA, p.29). Par ailleurs, un Comité de pilotage, installé à Addis-Abeba le 12 octobre 2012, devait orienter l’exécution générale du projet et faire le bilan des activités tous les six mois. Il devait également approuver les plans de travail et les budgets annuels du projet élaborés par la CUA/RHST, le Rectorat de l’UPA et les Instituts de l’UPA. De plus, « les bureaux extérieurs de la BAD (EARC, ETFO, NGFO, CMFO) joueront un rôle de premier plan dans le suivi technique et financier de l’exécution du projet et apporteront une assistance, le cas échéant » (BAD, 2013, juillet, UPA, p.28). Comme en témoignent les indicateurs, le « secteur privé est considéré comme un partenaire important pour la durabilité de l’UPA » qui a été associé à sa création et est « une partie prenante importante de la mise au point du projet d’UPA et de ses programmes afin d’assurer l’employabilité des futurs diplômés » (BAD, 2013, juillet, UPA, p.23). Dans cette perspective, « le secteur privé sera représenté au sein du Comité de pilotage et pendant le suivi et l’évaluation du projet. Par ailleurs, il participe activement à la conception et à la mise en œuvre des programmes de stage et est censé offrir des emplois aux futurs diplômés » (BAD, 2013, juillet, UPA, p.24). Il est attendu du projet UPA qu’il créé « les conditions de partenariats entre l’UA, les CER [Comités Economiques Régionaux], les gouvernements des différents pays, les universités africaines et étrangères, les bailleurs de fonds bilatéraux et multilatéraux, et le secteur privé aux niveaux tant national qu’international. Grâce au projet, l’UPA pourra tenir lieu « d’université du développement » pour l’ensemble du continent » (BAD, 2013, juillet, UPA, p.26). Par suite, c’est « au titre des biens publics régionaux (BPR) multinationaux » que la Banque Africaine de Développement (BAD, 2013, juillet, UPA) octroie son financement pour l’appui au projet de l’Université Panafricaine (UPA), Bien Public Régional (BPR) qui cadre avec sa Stratégie d’intégration régionale 2009-2012 recommandant l’intégration des Biens Publics Régionaux dans ses opérations (p.11). Il est ainsi attendu de l’UPA qu’elle contribue « à accélérer la mise en œuvre de l’approche régionale grâce à la promotion de l’intégration
de
la coopération régionales en Afrique et
à l’accroissement de la mobilité de la main-d’œuvre qualifiée » (BAD, 2013, juillet, UPA, p.13). L’UPA par rapport à d’autres établissements internationaux d’enseignement supérieur
Comme en témoigne le projet non abouti d’« université européenne » (Fischer, 1960) mentionnée dans le rapport de P.-H. Spaak (1956, 21 avril), ainsi que le Traité Euratom de 1957 instituant la Communauté européenne de l'énergie atomique (CEEA ou Euratom) donnant au Conseil européen la possibilité d'établir une « institution de niveau universitaire » (Euratom-CEEA, 1957, 25 mars, p.6, article 9, point 2), l’« idée d'Université internationnale est fort ancienne » (Szurek, 1975, p.2) et participe même à la « vocation ‘naturelle’ » (Szurek, 1975, note 2, p.2) des premières universités. Le projet d’« Université Européenne » illustre une technique possible de « création par voie d'accord intergouvernemental établi par une conférence diplomatique » (Fischer, 1960, p.6). L’Université Européenne devait bénéficier de « l'autonomie scientifique, administrative et financière sous réserve des compétences dévolues au Conseil des ministres et au Conseil européen » cependant, « l'Assemblée parlementaire européenne a demandé à exercer un contrôle sur le budget de l'Université et à désigner une partie des membres du Conseil européen » (Fischer, 1960, p.12). Le financement du projet d’Université Européenne, qui n’a pas abouti en raison de l’opposition de la France et de la nécessité de l’unanimité des États membres pour rendre sa création effective (Fischer, 1960, p.7), prévoyait trois hypothèses : la contribution des États membres et des Communautés ; la contribution des Communautés et celle, volontaire, des États membres ; enfin la contribution des seuls États membres, hypothèse pour laquelle seule la France s’était prononcée (Fischer, 1960, p.15). Ce projet, même non abouti, témoigne du fait que la création d’une Université Européenne était envisagée et que le Conseil européen « pourrait susciter la création d'instituts européens et apporter son appui à leur réalisation. Il pourrait également reconnaître la qualité d'Instituts européens aux instituts et organismes scientifiques spécialisés qui, dans les États parties, justifient ce titre par la composition de leurs corps professoraux et estudiantins, par la nature et la qualité de leur enseignement ou de leurs recherches ainsi que par l'importance de leur équipement scientifique » (Fischer, 1960, p.8). Ce projet non abouti d’Université Européenne illustre aussi les problématiques spécifiques que rencontrent les « établissements internationaux d enseignement supérieur » (Fisher, 1960) concernant la préservation de leur autonomie, leur mode de financement, ou encore le mode de recrutement des étudiants et des enseignants. G. Fischer (1960) présente deux autres types d’institutions d’enseignement supérieur internationales caractérisées par l’origine de leur création et leur mode de fonctionnement largement dépendant de la nature publique ou privée de l’établissement. La création d’établissements internationaux d’enseignement supérieur peut venir de l’initiative d’organisations internationales telles que l'Institut de Développement Economique créé en 1955 par la Banque internationale pour la Reconstruction et le Développement (la B.I.R.D. fait partie du Groupe de la Banque mondiale), ou encore l'Institut International d'Etudes Sociales fondé en 1960 « en tant qu’entité autonome de l’Organisation Internationale du Travail (O.I.T.) »365. Cependant, dans ces deux cas, les universitaires n’ont pas participé à la création de ces établissements. Par ailleurs, le financement de l'Institut du Développement Economique vient de la B.I.R.D. auquel s’ajoutent des subventions privées (les fondations Ford et Rockfeller ayant participé financièrement à son lancement), ainsi que la participation (modeste) du gouvernement dont le candidat apprenant est ressortissant (Fischer, 1960, p.15). De même, l'Institut International d'Etudes Sociales est financé sur le budget de l'O.I.T. au moyen d'un fonds de dotation auquel il est espéré que s’ajoutent des financements volontaires des gouvernements et d’institutions ou personnes privées (Fischer, 1960, p.15). L'Académie de Droit International de La Haye illustre une autre technique de création de tels établissements qui s’appuie sur un mode de financement privé, choisi pour éviter l’ingérence des États participant à sa création, et rendu possible par l’octroi d’un fonds mis à disposition de l’Académie (Fischer, 1960, p.4-5) par la Fondation Carnégie. L’Académie comporte « un Curatorium qui possède la compétence exclusive de choisir les professeurs et d'établir le programme. Le Curatorium, de composition internationale, comprend deux membres de droit (le représentant de la Fondation Carnegie et un membre hollandais désigné par le Conseil d'administration) ainsi que dix autres membres recrutés par cooptation » (Fischer, 1960, p.10). Selon l’auteur, les établissements internationaux d’enseignement supérieur créés en tant qu’institutions privées sont généralement financés par des subventions volontaires privées ou « par l'engagement d'un gouvernement de fournir des subsides et des locaux (attitude du Gouvernement luxembourgeois à l'égard de l'Université Internationale des Sciences Comparées) ou encore par les facilités offertes par une ville et par le Gouvernement du pays (Collège d'Europe). Des subventions régulières ou occasionnelles peuvent être consenties par des gouvernements, des fondations, des personnes physiques et morales. Les subventions peuvent revêtir aussi la forme de bourses données aux étudiants, de financement de cours spéciaux, de remboursement des frais de voyage et de séjour des professeurs » (Fischer, 1960, p.15). Dans cette perspective, si l’Université Panafricaine (UPA) est définie comme Bien Public Régional (BPR), son mode de financement est similaire au mode de financement privé décrit par G. Fischer (1960) puisque le fonds de dotation de l’Université Panafricaine (UPA) est créé sur la base de contributions volontaires des gouvernements des États membres de l’Union Africaine, des Communautés Economiques Régionales (CER), des partenaires au développement, des sources publiques et privées et des donateurs. De plus, chaque pays accueillant un Institut, un Centre ou le Rectorat, devait apporter des ressources supplémentaires (UA, 2012, juillet, rapport, p.50), et fournir notamment les infrastructures physiques nécessaires à l’accueil de l’institut de l’UPA. Toutefois, les bourses étudiantes ainsi que les honoraires du corps enseignant sont financés par l’Union Africaine366. L’Université des Nations Unies, officiellement inaugurée le « 20 janvier 1975 » (Szurek, 1975, p.2) est également une illustration d’établissement international et se présente comme « une université formée d'une série d'unités réparties dans le monde et reliées à un organe central de coordination » (Szurek, 1975, p.12). Ce modèle offrait la possibilité d’une mise en place progressive en fonction des offres gouvernementales, la possibilité d'utiliser prioritairement les instituts existants, et une structure décentralisée permettant à l’Université des Nations Unies d’être présente en divers lieux (Szurek, 1975, p.12). Cette structuration par répartition dans l’existant permet aussi au Conseil de l’Université des Nations Unies de « désigner, pour des raisons d'excellence académique, certaines institutions et centres, ou des parties de ceux-ci, en particulier dans les pays en développement, en tant qu'institutions associées 366 Union Africaine, site internet dédié à l’Éducation au 16 avril 2020, page dédiée à l’Université Panafricaine ; https://edu-au.org/agencies/pau 382 de l'Université » (Université des Nations Unies, s.d., article III, point 2, traduction libre 367) et est chargé de décider de la création ou de l'intégration des centres et programmes de recherche et de formation (Université des Nations Unies, s.d., article IV, point 4.c). Par ailleurs, l’article II de la Charte de l’Université des Nations unies spécifie que celle-ci bénéficiera « de la liberté académique nécessaire à la réalisation de ses objectifs, notamment en ce qui concerne le choix des sujets et des méthodes de recherche et de formation, le choix des personnes et des institutions à partager et la liberté d'expression. L'Université décide librement de l'utilisation des ressources financières allouées à l'exécution de ses fonctions. Le recteur, avec l'approbation du Conseil de l'Université, conclura, au nom des Nations Unies, des accords avec les pays où l'Université exerce ses activités pour assurer la liberté et l'autonomie académiques » (Université des Nations Unies, s.d., article II, p.3, traduction libre,368). L’Université Panafricaine (UPA, 2019, plan stratégique 2020-2024), qui ambitionne de devenir une institution « comparable à des institutions telles que l'Université des Nations Unies » (p.21), présente elle aussi une structuration répartie dans l’existant et se fonde sur 12 principes directeurs parmi lesquels on trouve en premier lieu « liberté universitaire, autonomie et responsabilité » (UA, 2012, juillet, rapport, p.33, article 1). Par suite, « l’UPA, ainsi que les pays hôtes de ses instituts et centres, doivent accorder à ses membres la liberté universitaire et l’auto-gouvernance en termes d’enseignement et de recherche. A ce sujet, l’UPA doit accorder au personnel universitaire et aux chercheurs la pleine indépendance appropriée, et doit accorder aux étudiants, de façon égalitaire, les pleins droits et privilèges d’apprendre » (UA, 2012, juillet, rapport, Annexe D, Statuts de l’UPA, Article III-2, p.35). En 2019, l’Université Panafricaine (UPA, 2019, plan stratégique 2020-2024) rappelle que ses statuts modifiés (UA, 2016, 31 janvier) de 2016 énoncent « la liberté, la responsabilité et l'autonomie académique en tant que principes de gouvernance de l'UPA » (p.26). Selon G. Fischer (1960), les établissements internationaux d’enseignement supérieur sont caractérisés de manière à se différencier des établissements nationaux. Dans cette perspective, les établissements internationaux d’enseignement supérieur se distinguent la plupart du temps par des méthodes d’enseignement plus diversifiées, par le niveau d’étude ciblé (le projet d’Université Européenne visait le 3ème cycle), et par une spécialisation en lien avec les besoins particuliers de l’institution établie. Autant de caractéristiques qui se retrouvent dans la conception de l’Université Panafricaine (UPA) qui ne propose que des formations de 2ème et 3ème cycles dans des domaines disciplinaires retenus comme prioritaires pour le développement de l’Afrique et dont le but est « de se distinguer des autres en travaillant sur une génération de jeunes panafricains responsables et aptes à faire avancer les organisations continentales, régionales et nationales » (UPA, 2019, plan stratégique 2020-2024, p.31). 367 article III, point 2 : « For purposes of advanced research and postgraduate training, the Council of the University may designate, on grounds of academic excellence, certain institutions and centres, or parts thereof, particularly in developing countries, as associated institutions of the University, on terms and conditions to be decided on by the Council. » 368 Article II, points 1 et 2 : « The University shall enjoy autonomy within the framework of the United Nations. It shall also enjoy the academic freedom required for the achievement of its objectives, with particular reference to the choice of subjects and methods of research and training, the selection of persons and institutions to share in its tasks, and freedom of expression. The University shall decide freely on the use of the financial resources allocated for the execution of its functions. The Rector, with the approval of the Council of the University, shall conclude on behalf of the United Nations such agreements with countries where the University operates as are necessary to ensure academic freedom and autonomy. 383 De plus, comme en témoigne le site de l’Institut PAUWES indiquant qu’« une grande variété de méthodes d’enseignement sont employées, y compris des conférences, des tutoriels, des cours pratiques, des séminaires, des stages, des visites sur le terrain »369, les méthodes d’enseignement sont censées être plus diversifiées.
| 54,014
|
16/hal-hceres.archives-ouvertes.fr-hceres-02029388-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,493
| 14,463
|
Champ Métiers de l'éducation, de l'enseignement et de la formation
Anne Vial Logeay, Présidente
PRÉSENT
ATION
Créée au sein de l'Université Paris-Sorbonne – Paris 4, l'École supérieure du professorat et de l'éducation (ESPE) de l'académie de Paris a pour partenaires sept établissements d'enseignement supérieur parisiens : l'Université Panthéon-Sorbonne - Paris 1, l'Université Sorbonne Nouvelle - Paris 3, l'Université Paris Descartes – Paris 5, l'Université Pierre et Marie Curie – UPMC – Paris 6, l'Université Paris Diderot – Paris 7 et l'institut national des langues et civilisations orientales (INALCO). Elle constitue une structure universitaire particulière, puisqu'elle est à la fois une composante pleine et entière de l'Université Paris-Sorbonne et une école, partenaire du rectorat de l'académie de Paris, avec des missions académiques spécifiques de formation des enseignants et personnels d'éducation, reconnues par la loi du 8 juillet 2013. Le champ Métiers de l'éducation, de l'enseignement et de la formation englobe quatre mentions de master éponymes (MEEF), dont la finalité commune est de former des enseignants, personnels d'éducation et formateurs, pour lesquels le principal employeur est l'Éducation nationale. Une mention MEEF-1er degré prépare au métier de professeur des écoles ; une mention MEEF-2nd degré, spécifiquement dédiée à former les enseignants de collèges et lycées est déclinée en 20 parcours ; une mention MEEF-Encadrement éducatif (EE) vise à faire acquérir aux étudiants les bases scientifiques et professionnelles nécessaires à l'exercice du métier de conseiller d'éducation. L'exercice de ces professions nécessite la réussite d'un concours ad hoc, positionné pendant la première année du master. Enfin, la mention MEEF-Pratique et ingénierie de la formation (PIF) prévoit trois parcours, principalement en direction d'un public déjà enseignant : métiers de l'adaptation et de la scolarisation des élèves à besoins éducatifs particuliers, formation de formateurs, ingénierie de la formation et médias numériques. Les enseignements sont principalement dispensés à l'ESPE, sur deux de ses sites, Molitor et Batignolles. AVIS GLOBAL
Les nombreux partenaires universitaires impliqués dans le champ MEEF offrent des possibilités de nombreuses mutualisations, et, par ailleurs, assurent des effectifs importants et relativement stables. Les mentions du champ présentent une offre riche et diversifiée, qui couvre l'ensemble des métiers de la formation et de l'éducation, hors éducation spécialisée. La préparation aux concours est rigoureuse et le système de stages et d'alternance proposé met la professionnalisation au coeur de la formation. Les étudiants des établissements d'enseignement supérieur partenaires de l'ESPE ont déjà pu suivre des enseignements de préprofessionnalisation en dernière année de licence, et continuent de bénéficier des dispositifs mis en place, qui sont nombreux et variés. Compte tenu de la faible diversification des métiers accessibles post master dans l'état actuel de l'offre, la gestion des flux étudiants en fonction du nombre de postes disponibles au concours est plutôt bienvenue, démontrant l'intérêt porté à l'insertion professionnelle des étudiants. La dimension professionnalisante reste toutefois pour l'instant un peu en-deçà des ambitions affichées, et ce, pour plusieurs raisons : • • • • concernant l'organisation pédagogique, le souhait affiché de développer une culture commune transversale à tous les masters MEEF se heurte à une organisation et un pilotage encore trop cloisonné. Une illustration est l'inexistence de projets pluri-disciplinaires communs aux différentes mentions ; le pilotage des différentes formations du champ n'a pas encore mené à son terme la réflexion sur l'accompagnement et l'insertion professionnelle des étudiants et des diplômés hors Éducation nationale ; la prise en compte des étudiants demeure lacunaire au niveau du suivi ; il manque des instruments dont ils puissent se servir (portfolio de compétences par exemple) et tout, des données concernant le devenir des étudiants non-lauréats des concours ; le processus de validation des acquis de l'expérience (VAE) est encore propre à chaque université, mais cela devrait être corrigé à partir de la rentrée 2017. Il existe toutefois un dispositif concerté avec 3 • les établissements partenaires pour la préinscription et l'inscription sous statut « formation continue » pour les étudiants en reprise d'études, et l'on relève l'existence d'une procédure de validation des acquis professionnels et personnels (VAPP). ANALYSE DÉTAILLÉE
Les objectifs scientifiques et professionnels des mentions sont clairement exposés et cohérents avec la structure des enseignements dispensés. Des blocs de compétences, disciplinaire, didactique, recherche, ont été nettement identifiés, avec le souci de mettre les étudiants en contexte d'exercice du métier, selon le cadrage national des masters MEEF. Les mentions qui préparent aux concours de l'enseignement du premier et du second degré et au métier de conseiller principal d'éducation ont une double visée : préparer aux concours de l'enseignement en première année de master (M1), via le développement progressif de compétences culturelles et professionnelles sur les deux ans de formation. Ces mentions réussissent à équilibrer formation scientifique et professionnalisation, notamment grâce à un système d'alternance entre semaines de formation et semaines de stages devant les élèves : l'aspect professionnalisant de la formation est bien central dans l'architecture des mentions. Le souci d'une culture transversale commune à l'ensemble des formations est frappant, et appréciable : ainsi, dès la rentrée en M1, une journée d'accueil propose des conférences sur des thématiques communes aux étudiants des mentions MEEF 1er degré, 2nd degré, EE et surtout un tronc commun de formation est organisé. Il est dommage que le master MEEF-PIF soit exclu de cette culture commune et de la mise en place du tronc commun. Cette culture transversale commune gagnerait sans doute à s'étoffer d'éléments pluridisciplinaires et transversaux. Alors que l'ESPE a été créée en 2013, la convention avec le Rectorat était attendue pour 2017. Une telle convention est pourtant nécessaire pour connaître précisément l'articulation entre parties prenantes ESPE/Rectorat/universités, et les moyens alloués par chacun pour faire fonctionner formations. Rien n'est dit sur ce point dans les dossiers, pas plus que sur la répartition entre Rectorat, ESPE, unité de formation et de recherche (UFR) des universités partenaires spécifiquement à chaque mention. Les mentions de masters sont co-accréditées : une telle politique demande un pilotage minutieux, mais même si des dispositions sont prises en ce sens, notamment pour le master MEEF-PIF, les efforts d'organisation devront être poursuivis. Les liens avec le milieu socio-culturel sont évidents, ils le sont un peu moins avec le milieu socio-économique ; on peut regretter que les différents masters ne paraissent pas s'en soucier davantage. Ce n'est évidemment pas leur finalité première, mais les finalités des formations sont présentées comme résultant d'une analyse des besoins réalisée en concertation avec l'Etat, les partenaires sociaux, les régions : il serait sans doute pertinent d'explorer d'autres champs qui pourraient être des voies d'avenir, voire des recours, et d'en informer les étudiants. Les liens avec la recherche sont clairement mentionnés (le champ est associé à 14 laboratoires de recherche, d'où la création en 2015 d'un Groupement d'Intérêt Scientifique), et ceci est suffisamment rare pour mériter d'être souligné même si, dans le détail, cette articulation n'est pas toujours simple, ni véritablement possible à mettre en oeuvre. L'adossement à la recherche est particulièrement pertinent pour le master MEEF-EE ; il gagnerait à être renforcé en MEEF-PIF, compte-tenu du public expérimenté auquel s'adresse ce master. L'internationalisation des formations constituait un des points prioritaires de l'offre de formation 2014-2018 tant pour l'ESPE que pour l'Université Paris-Sorbonne. La faiblesse de la formation en langues étrangères est constatée à plusieurs reprises, ce qui constitue un paradoxe en regard de la volonté d'internationalisation. Néanmoins, le champ bénéficie d'un service des relations internationales propre à l'ESPE (composé d'un chargé de mission, de responsables pédagogiques des différents partenariats et d'un support administratif), qui collabore avec la direction des relations internationales de l'Université Paris-Sorbonne. Différentes formules sont donc explorées : le dispositif EMILE (enseignement d'une matière en langue étrangère), la mise en place d'un stage de deux mois à l'étranger en seconde année de master - M2 (dans le cadre d'une unité d' – UE - de spécialité) avec le projet « Soutien à la mobilité sortante des étudiants du master 4 MEEF 2nd degré, parcours Anglais, cursus adapté », offre la possibilité aux étudiants de faire un stage de deux mois en établissement scolaire en Angleterre ; l'ESPE est partenaire du projet de recherche européen SPIRAL – School Teacher Professionalisation : Intercultural Ressources and Languages. Des enseignants étrangers ont été associés aux enseignements entre 2013 et 2017, mais on manque de précisions sur ce point. Il existe des accords Erasmus, plus ou moins utilisés par les étudiants ; ils pourraient être davantage renforcés, de manière à offrir une plus large palette de destinations, mais dans l'ensemble, cette volonté d'internationalisation prend forme et c'est à souligner dans un contexte difficile, qui plus est pour des formations où l'articulation entre formation et internationalisation n'est pas toujours aisée à réaliser. L'organisation pédagogique est claire ; la structure des mentions, souvent classique, reflète les attendus des métiers, et la professionnalisation est progressive, assurée sous forme de stages et d'interventions de professionnels issus de structures en relation avec les métiers de l'enseignement (conseillers principaux d'éducation (CPE), inspecteurs académiques - inspecteurs pédagogiques régionaux (IA-IPR), chefs d'établissements, inspecteur généraux de l'administration et de l'Éducation nationale et de la recherche (IGAENR), professeurs des écoles – maitres formateurs (PEMF)). Il existe peu de passerelles entre les quatre mentions et rien n'est dit sur les passerelles éventuelles vers ou en provenance des autres masters. La lisibilité de l'offre de formation peut laisser parfois à désirer. Tel est notamment le cas pour le master MEEF2nd degré, avec ses 20 parcours (à titre d'exemple : place d'un même enseignement dans des UE différentes selon les parcours, volumes horaires différents pour un même nombre de crédits ; absence d'harmonisation entre les intitulés, la répartition des coefficients, la constitution des jurys). De même, la mention MEEF-PIF est difficilement lisible, compte-tenu de l'existence de deux objectifs distincts assignés en M1 et M2, ce qui pourrait poser à terme un problème de recrutement. Des concours blancs et des oraux sont mis en place pour aider à la réussite aux concours. L'aide à la réussite est cependant inégale d'une mention à l'autre, même si l'on constate un souci certain en ce sens. En MEEFPIF, il existe un renforcement méthodologique, pour les étudiants ayant échoué. La place du numérique constitue un des atouts revendiqués par le champ : de fait, même s'il existe des différences d'une mention à l'autre la création d'un réseau de référents numérique dans l'ensemble des départements disciplinaires de l'ESPE permet l'intégration de ressources et outils numériques, sous des formes variées. Enseigner, former et apprendre avec et par le numérique est d'ailleurs l'un des éléments du tronc commun de formation. Le certificat informatique et internet niveau 2 enseignant (C2i2e) est proposé sous forme optionnelle, et les étudiants sont invités à réfléchir en termes de projets construits à partir du numérique. Les équipes sont constituées et clairement indiquées, même si à l'exception du master MEEF-EE, il manque des données précises, et chiffrées, permettant de mesurer la part respective des différents intervenants : elles sont par ailleurs diversifiées, et pensées de façon à impliquer les acteurs dans la formation, le but étant de parvenir à une culture commune transversale à tous les masters MEEF. On peut et on doit saluer la mise en place d'un tronc commun pour le développement d'une « culture transversale de métier » entre les parcours 1er degré, 2nd degré et encadrement éducatif, propice à la structuration de l'identité professionnelle ; toutefois, concrètement, dans la mesure où le pilotage se fait par mention (cadrage des stages et des mémoires notamment), chacun tente à l'intérieur de sa mention d'assurer une cohérence interne, et la transversalité est moins présente qu'espéré, notamment au sein du master MEEF 2nd degré. Chaque parcours est coordonné par un enseignant-chercheur (EC). On note la présence de responsables d'UE, point positif pour le dialogue avec les étudiants, et les parcours sont assez bien coordonnés entre eux, même si l'on relève de fortes disparités entre parcours au sein du master MEEF-2nd degré. Comme en bien d'autres universités, les équipes pédagogiques annoncées comme « pluri-catégorielles » font toutefois apparaître bien plus d'acteurs de l'ESPE et du rectorat (voire du monde associatif) que d'enseignants des UFR, et un point noir tient à l'étanchéité des enseignements disciplinaires (assurés par des enseignants des UFR) et des enseignements du tronc commun (dispensés par des enseignants ou intervenants rattachés à l'ESPE ou au Rectorat). Le pilot du master MEEF-2nd degré fait question compte-tenu de la multiplicité des parcours : l'équipe pluri-catégorielle est limitée au tronc commun, tandis que les autres blocs sont confiés à des équipes disciplinaires. A l'inverse le caractère pluri-catégoriel est particulièrement présent dans l'équipe de la mention MEEF-EE, d'où une excellente articulation entre le terrain et la recherche. Ces équipes tiennent des réunions régulières, plus ou moins fréquentes selon les mentions : des réunions par quinzaine sont organisées en master MEEF-PIF, mais il n'y a qu'une réunion annuelle en master MEEF-EE. À l'exception du MEEF-EE, les conseils de perfectionnement n'ont pas été mis en place : ils devraient l'être dans le cadre du nouveau contrat quinquennal. Il n'y a pas de véritable prise en charge des étudiants en situation d'échec aux concours, et les porteurs de formations le savent. Cette prise en charge pourrait passer par une réflexion sur les compétences transversales acquises, de nature à faciliter l'exploration d'autres métiers ou d'autres secteurs professionnels que ceux initialement visés. Il faut absolument, dans un souci pédagogique commun, prévoir davantage de dispositifs d'aide à la réussite et de possibilités de réorientations. On pourrait recommander aux différents parcours de généraliser l'introduction du portfolio de compétences, encore peu présent, et de suivre l'acquisition de ces compétences. Il conviendra de remédier à ces lacunes, et plusieurs mentions en sont bien conscientes : cela participe d'une véritable culture de la professionnalisation, et d'un souci pédagogique fort. Les dossiers font systématiquement le bilan des points faibles et points forts de leur formation : la culture de l'autoévaluation est bien présente, même si elle pourrait encore s'améliorer. En effet, le manque d'instruments de suivi et l'absence de perspective à moyen ou long terme sont regrettables : il semble difficile de revendiquer un suivi des débouchés sans l'articuler à un suivi des étudiants, et les équipes pédagogiques peuvent encore progresser en ce sens. Les formations proposées sont clairement attractives : elles ont su tirer parti du format contraignant imposé par l'architecture des mentions de master MEEF. En revanche, tous les étudiants diplômés ne réussissent pas pour autant leur concours : ce problème n'est pas propre aux formations parisiennes, et pose la question de l'adéquation d'une formation aux concours à travers un diplôme de master en deux ans, quand on constate les nombreux redoublements en M2, sous forme de « cursus é » (en MEEF-2nd degré, les étudiants ayant échoué aux concours sont signalés comme très nombreux à s'y présenter au moins trois fois). Nonobstant cette remarque, les résultats aux concours sont bons, et la formation est indubitablement de qualité. En dépit de la mise en place des « cursus adaptés », le manque de suivi des étudiants non-lauréats, dont les formations font elles-mêmes état, doit être déploré. Master Métiers de l'éducation, de l'enseignement et de la formation - 1er degré Master Métiers de l'éducation, de l'enseignement et de la formation - 2nd degré Master Métiers de l'éducation, de l'enseignement et de la formation - Encadrement éducatif Master Métiers de l'éducation, de l'enseignement et de la formation - Pratique et ingénierie de la formation
MASTER MÉTIERS DE L'ENSEIGNEMENT, DE L'ÉDUCATION ET DE LA FORMATION – PREMIER DEGRÉ
Établissement : Université Paris-Sorbonne, Université Paris 1 Panthéon-Sorbonne, Université Sorbonne Nouvelle - Paris 3, Université Paris Descartes, Université Pierre et Marie Curie, Université Paris Diderot, Institut national des langues et civilisations orientales – INALCO, Institut catholique de Paris - ICP
PRÉSENTATION DE LA FORMATION
Le master Métiers de l'enseignement, de l'éducation et de la formation (MEEF) mention Premier degré de l'École supérieure du professorat et de l'éducation (ESPE) de l'académie de Paris s'inscrit dans le cadrage national de la formation initiale des professeurs des écoles. Il a trois objectifs : (1) préparer au concours de recrutement de professeur des écoles (CRPE) en première année (M1) ou nouvelle préparation en deuxième année (M2) pour les non-lauréats ; (2) professionnaliser les futurs enseignants pour exercer en écoles maternelles et élémentaires ; (3) développer des compétences permettant d'enseigner, de former ou d'éduquer au sein des écoles de l'Éducation nationale ou privées sous contrat ainsi que dans des structures autres (culturelles, éducatives, sociales, de formation, etc.). La capacité d'accueil est fixée à 360 étudiants en M1. L'effectif de M2 est assujetti aux places aux concours et au nombre de lauréats. Ce master se centre sur connaissance et la didactique des disciplines scolaires, sur la perception de l'environnement social et institutionnel de l'Éducation nationale et du secteur éducatif au sens large, et sur des mises en situation professionnelle. Le cursus se déroule en présentiel avec des modalités en cours magistraux, travaux dirigés et travaux pratiques et temps d'accompagnement qui totalisent (hors stages) 591 heures pour le M1 ; 292 heures pour le M2 PES (professeurs des écoles stagiaires, lauréats du CRPE) ; 407,50 heures pour le M2 non PES (étudiants ayant échoué au concours en fin de M1 et en renouvellement de préparation). ANALYSE Finalité
À l'instar des autres masters MEEF et du cadrage national dont ils font l'objet depuis 2013, cette formation a explicitement pour objectif la préparation au métier de professeur des écoles (maternelles et élémentaires), sur les trois cycles d'enseignement qu'elles recouvrent (cycle 1 : de la petite à la grande section à l'école maternelle ; cycle 2 : du cours préparatoire à la deuxième année du cours élémentaire à l'école élémentaire ; cycle 3 : du cours moyen niveau 1 à l'école élémentaire à la classe de 6e au collège). Ce métier s'exerçant majoritairement sous statut de fonctionnaire, la préparation au concours de recrutement, qui intervient en fin de M1, est Campagne 'é – 2018 - Vague D Département d'évaluation des formations 1 intrinsèquement liée aux contenus de formation en M1, voire en M2 pour les non-lauréats. Cependant, par son partenariat avec l'Institut catholique de Paris - ICP, ce master permet aussi l'accès au recrutement en écoles privées sous contrat. Les objectifs d'insertion professionnelle dans d'autres structures restent encore fragiles, en raison d'une offre de stages hors Éducation nationale trop discrète et d'une information faible sur le devenir des non-lauréats, malgré les partenariats noués. Les contenus du master suivent au plus près le référentiel de compétences des métiers de l'enseignement publié au bulletin officiel de l'Éducation nationale (BOEN) du 25 juillet 2013. Par une volonté spécifique de création d'un tronc commun aux trois mentions MEEF (Premier degré ; Second degré ; Encadrement éducatif), l'affichage d'une culture commune autour de compétences transversales aux différents segments et missions du système éducatif est très net : l'ancrage institutionnel qui en découle est très explicite dans les contenus de formation. Ce master répond aux missions nationales des ESPE en matière de formation initiale des professeurs des écoles, avec le cadrage territorial correspondant au découpage académique en vigueur. Le partenariat étroit avec les instances académiques a permis une fluidification et une amélioration des mises en stage. Il a été mené une réflexion constructive autour de l'alternance afin de soutenir au mieux les professeurs des écoles stagiairesétudiants de M2. La plateforme commune entre l'ESPE et l'académie de Paris, en cours d'élaboration, va permettre de coordonner et d'harmoniser les éléments du parcours du PES afin de donner tous les éléments nécessaires à la décision de titularisation. L'ESPE de l'académie de Paris a su tirer parti du vivier d'institutions lié à sa situation géographique spécifique, en tissant des partenariats très pertinents : (1) sur le plan culturel avec une dimension d'application pédagogique (musées, associations, instances de recherche ou de diffusion scientifique, etc.) ; (2) sur le plan universitaire (composantes des autres universités parisiennes dans lesquelles sont proposés des modules de préprofessionnalisation au professorat des écoles ; (3) sur le plan scientifique par la création d'un groupement d'intérêt scientifique (GIS, Réseau de recherche en éducation, enseignement & formation de l'ESPE de l'académie de Paris - RREEFOR-ESPE) et autour des 14 laboratoires partenaires avec un recensement des ressources et des thématiques éducatives mobilisées dans ces équipes. À l'international, sept accords bilatéraux Erasmus (EuRopean Action Scheme for the Mobility of University Students) ont été conclus et des appuis au développement pédagogique (en Égypte, en Chine) sont en cours. Un projet financé par la Commission européenne dans le cadre du programme Erasmus+ (projet SPIRAL - School-teacher Professionalisation: Intercultural Resources and Languages) fait l'objet d'un partenariat entre cinq centres européens de formation à l'enseignement élémentaire : il a pour but d'élaborer un cadre de référence commun contenant des grilles d'évaluation, une démarche qualité, un référentiel de compétences, etc. La mobilité des étudiants du master MEEF Premier degré reste cependant discrète (entre 30 et 42 étudiants sortants lors du stage de M1 et entre 11 et 25 entrants chaque année depuis 2013). Par respect du cadrage national, la maquette de formation est organisée autour de cinq grands domaines en cinq unités d'enseignement (UE) qui reflètent bien les attendus du métier en termes de connaissances polyvalentes et disciplinaires, de didactique, de réflexivité, de mise en situation (UE1 : Langue et culture humaniste, UE2 : Sciences, UE3 : Exercice du métier, UE4 : Recherche, UE5 : Culture commune). Cette structuration autour de cinq UE suit les deux années de master, ce qui donne une cohérence au cursus. La préparation au concours fait l'objet de modalités spécifiques : concours blancs écrits, oraux blancs, module de « savoir-faire de présentation orale ». Pour ceux qui échouent au concours en fin de M1, un entretien de motivation et des modules de renforcement en français et en mathématiques sont mis en place en M2. Les entrants en M2 qui n'ont pas suivi le M1 MEEF font l'objet d'un test en français et en mathématiques en début de M2 avec un accompagnement spécifique si besoin ; ils font aussi l'objet d'un entretien d'accueil et d'un entretien de positionnement en cours de M2. Cependant, des modalités spécifiques compensatoires au M1 (didactique, connaissances sur l'enfant, sur le système éducatif, etc.) ne sont actuellement pas prévues en M2 pour ces publics spécifiques. Ce questionnement qui mériterait d'être opérationnalisé. 10 % de PES sont, chaque année, identifiés comme en difficulté dans leur exercice du métier : ils font l'objet d'entretiens complémentaires, de visites et bénéficient de conseils supplémentaires, voire de stages d'observation et de pratique accompagnée chez un professeur des écoles-maitre formateur (PEMF) exerçant au même niveau 2 de classe. Ceci est très pertinent et atteste d'une volonté de sécuriser les parcours. Si la validation des acquis professionnel (VAP) est bien opérationnelle pour accéder au master MEEF, si les repreneurs d'études font l'objet d'un service dédié, en revanche, la validation des acquis de l'expérience (VAE) n'a pas été mise en place : cela devrait se mettre en place pour permettre la « mastérisation » d'enseignants chevronnés issus des anciens cursus de formation (niveau baccalauréat ou diplôme d'études universitaires générales - DEUG ou licence) et ce, dans le cadre de la formation tout au long de la vie. Pilotage
L'équipe de formation est pluri-professionnelle (enseignants-chercheurs, formateurs, enseignants-formateurs en temps partagé, PEMF, représentants d'organismes culturels et/ou associatifs) pour garantir l'ancrage dans une professionnalisation avérée. On s'interroge cependant sur la part précise que prennent dans la formation les intervenants issus du Rectorat et plus globalement sur la répartition des formateurs entre unités de formation et de recherche (UFR), ESPE et Rectorat. Un souci de cohérence est assuré par la mise en place de départements de formation disciplinaires et transversaux (adaptation scolaire et scolarisation des élèves handicapés – ASH ; numérique) et par des responsables d'UE qui assurent la cohérence interne (contenus, évaluation) et l'interface entre étudiants et équipe de pilotage. Les étudiants sont bien représentés dans les instances décisionnaires (conseil d'école, conseil d'orientation scientifique et pédagogique) et leurs avis sont pris en compte. Malgré des réunions régulières, on regrette l'absence d'un conseil de perfectionnement. L'évaluation des connaissances est annualisée et se fait par contrôle continu. Si certains blocs peuvent se compenser, le stage et le mémoire ne peuvent pas l'être, ce qui permet d'en faire des éléments centraux de la formation. Le suivi de chaque étudiant est assuré par un tuteur académique et un référent ESPE et fait l'objet de temps spécifiques balisés dans la maquette de formation : il permet l'accompagnement à l'acquisition des compétences du métier ; il permet aussi leur attestation (visites d'évaluation) de manière impartiale et en appui sur le référentiel officiel du métier de professeur des écoles. L'équipe du master mène aussi une réflexion très utile pour favoriser le continuum post-ESPE des jeunes enseignants titularisés, avec proposition de modules de formation continue, répondant à des besoins identifiés chez ces néo-titulaires (par exemples, exercer en contexte multiculturel, question du climat scolaire, etc.).
Résultats constatés
Avec 88 % de réussite à l'admissibilité en M1, 81 % pour les re-préparationnaires en M2 et 61 % de lauréats aux divers concours de recrutement de professeur des écoles (public/privé), le master MEEF Premier degré de l'ESPE de l'académie de Paris connaît un taux de réussite tout à fait satisfaisant. Il faut noter, par ailleurs, que 60 % des entrants en M2 (en général lauréats du concours) n'ont pas suivi le M1 MEEF (autres masters, repreneurs d'études, etc.). CONCLUSION
Principaux points forts : ● Une préparation rigoureuse et accompagnante au concours et au métier de professeur des écoles, ce qui mène à un bon taux de réussite aux concours. ● Une diversification des parcours en fonction des profils : parcours M2 différents pour étudiants PES et étudiants non PES, accompagnement spécifique des PES en difficulté et des repreneurs d'études en M1. ● Mise en place d'un tronc commun pour le développement d'une « culture transversale de métier » entre les parcours Premier degré, Second degré et Encadrement éducatif, propice à la structuration de l'identité professionnelle. ● Accent mis sur la méthodologie d'analyse réflexive, compétence particulièrement intéressante dans tout milieu professionnel. Pas assez de prise en compte des parcours de formation (stages) et d'insertion hors Éducation nationale. Pas de mise en place de la validation des acquis de l'expérience. Fragilité de la passerelle vers le M2 MEEF sans avoir fait le M1 MEEF (autres masters, repreneurs d'études). Volume horaire particulièrement élevé (883 heures sur les deux années). Certes des réunions régulières avec comptes rendus mais pas de conseils de perfectionnement. ANALYSE DES PERSPECTIVES ET RECOMMANDATIONS
En appui sur une maquette rigoureuse, sur une réflexion étoffée de la place de la recherche, sur un souhait de la cohérence de l'alternance, sur un suivi méthodique et sérieux de la professionnalisation, sur l'ancrage dans une réelle identité de métier avec le tronc commun, l'équipe du master MEEF Premier degré de l'ESPE de l'académie de Paris devrait cependant (1) réfléchir à mieux dissocier concours et master, en proposant des modalités plus nettes pour la professionnalisation et l'insertion hors Éducation nationale ; (2) diversifier encore plus le début du M2 pour les non titulaires du M1 MEEF (modalités compensatoires, université d'été, identification et valorisation des compétences développées dans une autre antériorité professionnelle, par exemple) ; (3) mettre en place la validation des acquis de l'expérience, en particulier pour des enseignants chevronnés qui n'ont pas connu la formation initiale sous la forme bac+5/master (avant 2008). Il serait également profitable à la formation de mettre en place des évaluations par les étudiants ainsi qu'un portfolio de compétences dont il faudra assurer le suivi. Les modalités d'insertion hors Éducation nationale (le second E – éducation – et le F – formation – du master MEEF!) restent trop peu prises en compte. Ainsi, pour les étudiants ne souhaitant pas préparer ou re-préparer le concours et se destinant à des métiers hors Éducation nationale, des modalités de stages, notamment avec les partenaires culturels ou éducatifs nombreux sur le bassin de l'ESPE de Paris, seraient à formaliser pour accompagner ces projets personnels spécifiques ; l'ESPE de l'académie de Paris devrait se doter d'un outil de type « questionnaire d'insertion » à adresser à ses ex-é tudiants non-lauréats au concours ; une veille sur les emplois hors Éducation nationale (notamment en activant le réseau partenarial) compatibles avec le master MEEF Premier degré pourrait aussi être envisagée et diffusée à ces ex-étudiants, qui se trouvent sans solution. MASTER MÉTIERS DE L'ENSEIGNEMENT, DE L'ÉDUCATION ET DE LA FORMATION – SECOND DEGRÉ
Établissements : Université Paris-Sorbonne, Université Paris 1 Panthéon-Sorbonne, Université Sorbonne Nouvelle – Paris 3, Université Paris Descartes, Université Pierre et Marie Curie, Université Paris Diderot, Institut national des langues et civilisations orientales – INALCO
PRÉSENTATION DE LA FORMATION
Le master Métiers de l'enseignement, de l'éducation et de la formation mention Second degré (MEEF - 2nd degré) a pour principal objectif de former les futurs enseignants de collèges et lycées. La première année (M1) accompagne les étudiants dans le développement de compétences professionnelles et les prépare aux concours ad hoc (Certificat d'aptitude au professorat de l'enseignement du second degré - CAPES, Certificat d'aptitude au professorat de l'enseignement technique - CAPET). La deuxième année (M2) propose aux lauréats des concours, fonctionnaires-stagiaires de l'Éducation nationale, une formation en alternance. Les étudiants non-admis aux concours suivent un cursus adapté à leur profil et à leurs besoins particuliers pour renforcer leurs savoirs disciplinaires et leurs savoir-faire méthodologiques. Ce master est multi-site et comprend 20 parcours (18 parcours de disciplines générales, un parcours de discipline technologique et un parcours Documentation). Les enseignements de tronc commun sont dispensés dans les centres de l'École supérieure de professorat et de l'éducation (ESPE) de l'académie de Paris (Molitor et Batignolles), les enseignements spécifiques dans les établissements partenaires selon les disciplines (Université Paris 1 Panthéon-Sorbonne, Université Sorbonne Nouvelle – Paris 3, Université Paris-Sorbonne, Université Paris Descartes, Université Pierre et Marie Curie, Université Paris Diderot, Institut national des langues et civilisations orientales INALCO. ANALYSE Finalité
Dans l'objectif de former les futurs professeurs des collèges et lycées et les professeurs documentalistes, cette mention a une double visée : la préparation des concours de l'enseignement (en M1 et M2 cursus adapté) et le développement progressif des compétences professionnelles générales (culture commune) et spécifiques (savoirs disciplinaires, didactique des disciplines) sur deux ans. Les objectifs scientifiques et professionnels sont en cohérence avec les professions accessibles après l'obtention du diplôme. Les débouchés professionnels sont Département d'évaluation des formations 1 identifiés, lisibles : enseignants titulaires ou contractuels, formateurs dans des organismes privés, éducateurs en milieu associatif. Ils sont cependant peu nombreux et l'employabilité semble faible pour les diplômés qui n'intègrent pas la fonction publique.
Positionnement dans l'environnement
Une réflexion pertinente a été menée pour définir les spécificités de ce master aux niveaux local et régional. Il propose des parcours différents et/ou complémentaires de ceux proposés dans les ESPE de l'académie de Créteil et de l'académie de Versailles (dont les formations relèvent davantage des métiers de l'enseignement technologique et professionnel). Une offre spécifique en langues dites « rares » (arabe, chinois, hébreu, italien, russe) ainsi que certains parcours uniques en Ile-de-France (musique, arts plastiques) contribuent à l'attractivité et au rayonnement de la mention. L'ESPE de l'académie de Paris travaille en collaboration avec le Rectorat et les universités partenaires. Une convention est à l'oeuvre avec l'Institut catholique de Paris – ICP, impliqué dans la formation des candidats au concours de l'enseignement privé. L'enseignement d'une culture commune permet l'intervention de partenaires institutionnels, culturels et associatifs avec lesquels l'ESPE travaille. Ces intervenants animent des ateliers ou accueillent des stagiaires, ce qui diversifie les modalités d'apprentissage du métier. Ces ouvertures pourraient être cependant renforcées et les enseignements de tronc commun confiés pour partie à certains enseignants des universités partenaires, de façon à tirer profit de la multitude de profils des enseignants des 20 parcours et renforcer la démarche collaborative. L'identité de la mention MEEF s'en trouverait affirmée, car ses parcours disciplinaires multiples, aux fonctionnements propres, tendent à être indépendants et ne semblent pas tous adopter pleinement les grandes lignes directrices communes définies. Les adaptations/variations sont nombreuses à la lecture des maquettes. L'adossement aux laboratoires de recherche des universités impliquées renforce la pertinence scientifique de la mention, dynamisée par la création d'un groupement d'intérêt scientifique (GIS). Les partenariats et contacts avec le Centre national de la recherche scientifique (CNRS), l'École pratique des hautes études (EPHE), le Museum national d'histoire naturelle (MNHN), l'Institut national de la santé et de la recherche médicale engendrent un environnement de recherche porteur.
Organisation pédagogique
Le master MEEF - 2nd degré est une formation sélective. Le recrutement s'opère au niveau du M1 sur dossier (CV, relevé de notes et lettre de motivation) en fonction des capacités d'accueil définies par parcours. On regrette de ne pas voir apparaitre dans les critères pris en compte les parcours de préprofessionnalisation organisés dans les licences des établissements partenaires. Ce master se déploie en 20 parcours mais la mention annonce un cadre organisationnel pour plus de cohérence et de lisibilité structurelle. Une organisation par blocs est retenue en vue d'une relative harmonisation des maquettes propres à chaque parcours (bloc disciplinaire, bloc didactique, bloc recherche, bloc contexte d'exercice du métier, bloc mise en situation professionnelle). L'élément fédérateur des 20 parcours consiste en une unité d'enseignement dite de « tronc commun » pour tous les étudiants des mentions MEEF - Premier degré, 2nd degré et Encadrement éducatif. Elle permet des échanges interdisciplinaires, crée une culture commune et développe savoirs institutionnels et compétences transversales. Dispensée par une équipe pluri-catégorielle, elle implique des intervenants de l'ESPE et de l'académie (majoritaires), quelques intervenants des mondes associatifs et culturels mais on peut s'interroger sur le faible nombre de partenaires universitaires (deux intervenants). Le dossier d'autoévaluation indique des horaires et un calendrier partagés pour le tronc commun à savoir 60 HETD (heures équivalent travaux dirigés) en M1, 52 HETD en M2. Cependant, la lecture des maquettes de parcours révèle des carts significatifs au niveau des horaires et de l'organisation des enseignements au sein des blocs. La répartition des crédits ECTS (European Credit Transfer System) n'est pas uniformisée, certains parcours manquent de lisibilité (le parcours Chinois et le parcours Arabe ne distinguent pas nettement enseignements de tronc commun et enseignements spécifiques à la discipline et globalisent volume horaire et crédits ECTS). Il faut également noter un manque de transparence pour certains parcours (maquettes du parcours Hébreu et du parcours Russe non fournies, contenus non spécifiés ou de manière incomplète pour les parcours Économiegestion, Italien et Physique-chimie). L'ensemble n'est pas en pleine cohérence avec la structuration prônée au niveau de la mention. Les enseignements sont adossés à la recherche en éducation et la création d'un GIS participe d'une dynamique positive. Des enseignants-chercheurs sont impliqués dans la mention, à l'exception du parcours Campagne d'évaluation 2017 – 2018 - Vague D Département d'évaluation des formations 2 Arabe. Lors de la soutenance du mémoire de M2, le jury devrait cependant obligatoirement comprendre un enseignant-chercheur pour valider la qualité de la recherche proposée par l'étudiant. Les trois ECTS accordés au stage d'observation et de pratique accompagnée sont faibles par rapport à l'objectif de professionnalisation revendiqué. Un cadrage pour une harmonisation des pratiques entre les parcours concernant le stage est nécessaire (rédaction d'un rapport de stage avec ou sans soutenance par exemple). Le stage pour les étudiants non lauréats d'un concours devrait faire l'objet d'une réflexion et d'une intensification pour envisager d'autres débouchés, d'autres issues en accord avec leur niveau d'études. L'ouverture à l'international et la mobilité étudiante sont soutenues par l'ESPE dans le cadre d'un projet de mise en stage à l'étranger des M2 en cursus adapté (deux mois) et de la mise en oeuvre du dispositif EMILE (Enseignement d'une matière intégré à une langue étrangère) pour certains parcours : 15 étudiants par an partent à l'étranger pour devenir assistants de français. Certes, les départs via le programme Erasmus (EuRopean Action Scheme for the Mobility of University Students) sont possibles et des professeurs étrangers sont accueillis ; cependant, la spécificité de ce master qui s'ouvre surtout sur les métiers de l'enseignement dans la fonction publique et la pression du concours empêchent une mobilité forte. Les cours se déroulent en présentiel pour la é. Quatre séminaires peuvent être suivis à distance. Le numérique est présent dans la formation mais peu dans les modalités d'enseignement. Cette dimension est sans doute à développer pour plus de flexibilité. L'ESPE prévoit des aménagements d'emploi du temps pour les étudiants salariés ou à statuts particuliers, des aides et aménagements pour les étudiants en situation de handicap. La formation est accessible aux étudiants en reprise d'études par la validation des acquis personnels et professionnels - VAPP (sur dossier et projet professionnel). La procédure de validation des acquis de l'expérience (VAE) n'est, selon le dossier, pas mise en oeuvre de façon harmonisée mais le détail des procédures n'est pas indiqué. Certaines unités d'enseignement peuvent être validées sur décision d'une commission en fonction du cursus antérieur de l'étudiant. Pilotage
L'équipe pédagogique est pluri-catégorielle et comporte des enseignants-chercheurs (professeurs et maîtres de conférences), des enseignants du secondaire détachés dans le supérieur (professeurs agrégés - PRAG et professeurs certifiés - PRCE), personnels de l'ESPE et des universités partenaires, des professeurs des collèges et lycées en temps partagé ESPE/établissement, des inspecteurs d'académie et inspecteurs pédagogiques régionaux (IA-IPR) des disciplines, des professeurs formateurs académiques ou faisant fonction. On aimerait néanmoins connaître la répartition précise des volumes horaires assurés par l'ESPE, les unités de formation et de recherche (UFR) et l'académie. La distinction entre enseignements de tronc commun dispensés par l'ESPE/Rectorat et les enseignements disciplinaires dispensés à l'université engendre un cloisonnement, renforcé par la logique multi-site. Une réflexion par compétences pourrait permettre davantage de fluidité entre les deux entités. Impulser, renforcer, engendrer une dynamique collaborative au sein de cette équipe pluri-catégorielle représenterait sans aucun doute une plus-value pour cette mention de master. Un coordinateur nommé pour chaque parcours et un responsable de l'unité d'enseignement « Stage et mémoire » permettent théoriquement des échanges et une harmonisation des pratiques. Ce fonctionnement est à étendre, voire à imposer pour renforcer la cohérence au niveau de la mention. Un conseil de perfectionnement devrait être créé pour améliorer le fonctionnement global et permettre des avancées communes. Des instances sont déjà à l'oeuvre (conseil d'orientation scientifique et pédagogique - COSP inhérent aux ESPE, comité de suivi) mais il semble que tous les parcours ne se placent pas dans une perspective de pilotage par la mention. Les variations, adaptations écarts de pratiques constatés sur des enseignements dits « communs » ou des éléments fondamentaux, comme le stage et le mémoire, montrent que certains restent dans une logique interne, freinant ainsi le décloisonnement et le développement d'une transversalité. Le dossier d'autoévaluation annonce une volonté d'harmoniser les modalités d'obtention du master et de certains enseignements pour donner plus de cohérence au niveau de la mention. Un tronc commun, une unité d'enseignement d'une langue vivante, un cadrage des stages et mémoires doivent ainsi être identifiables dans chaque parcours dans une logique décidée au niveau de la mention. Cependant, la lecture des maquettes dévoile des écarts par rapport aux règles d'attribution/répartition des ECTS annoncées (variations concernant le mémoire de M2 entre huit et 25 ECTS en fonction des parcours et des cursus). Le cadrage au niveau de la mention subit de fortes adaptations et variations et l'ensemble n'est pas harmonieux. Il en est de même pour les crédits alloués au tronc commun (pas d'harmonisation entre horaires et ECTS associés). Un jury unique est organisé au niveau de la mention sur une base annuelle, au mois de juin. Composés d'enseignants-chercheurs, Campagne d'évaluation 2017 – 2018 - Vague D Département d'évaluation des formations 3 conformément à la réglementation, il délibère à partir des propositions faites par les commissions de parcours. Un dispositif d'aide à la réussite ou d'accompagnement des étudiants vers la réussite est mis en place avec l'organisation de concours blancs et de simulations pour les épreuves écrites d'admissibilité ou les oraux d'admission. Certains parcours prévoient une pédagogie différenciée avec la mise en place de majeure et de mineure en Physique-chimie par exemple. Un renforcement méthodologique est intégré au cursus adapté du M2 qui accueille des étudiants mis en échec au concours. Les étudiants bénéficiant d'un contrat « Étudiant apprenti professeur » peuvent bénéficier d'une mise en stage dans leur établissement habituel et être dispensés d'une partie des cours de tronc commun. Peu d'étudiants demandent une réorientation mais elle est possible vers la mention MEEF - Premier degré ou vers d'autres parcours, voire d'autres masters après un entretien personnalisé. Ils peuvent aussi se présenter à d'autres concours, comme celui délivrant le Certificat d'aptitude au professorat en lycée professionnel (CAPLP) par exemple. L'évaluation des enseignements par les étudiants n'est pas généralisée, ni harmonisée dans les parcours. Le tronc commun, par contre, est évalué par les étudiants mais le dossier n'indique pas les résultats ou actions issues de ces démarches évaluatives. Une autoévaluation est menée au niveau du COSP. Les critères ne sont pas précisés dans le
dossier. Résultats constatés
Les effectifs de la mention sont importants et le dossier annonce qu'ils sont stables avec plus de 1100 inscrits tous parcours confondus en M1. La mention présente donc un bon taux d'attractivité. Les seuls parcours dont la baisse des effectifs est sensible sont l'Allemand (tendance nationale) et Physique-chimie. Certains parcours n'ouvrent que si des postes au concours sont budgétés et ouverts par le ministère de l'Éducation nationale (Hébreu, Russe, Arabe), ce qui renforce la nécessité d'une réflexion sur le devenir des étudiants diplômés mais non admis aux concours. Un master MEEF validé doit ouvrir des portes même sans l'obtention d'un concours. Alors que l'accès en M1 est sélectif, il serait intéressant d'établir un lien entre sélection, résultats aux concours et insertion professionnelle. CONCLUSION
Principaux points forts : ● Mention attractive, dont l'offre de parcours est étendue et diversifiée. ● Bon taux de réussite aux concours et de titularisation. ● Positionnement fructueux dans l'environnement local et régional en raison de la spécificité des parcours proposés. ● Partenariats institutionnels et culturels nombreux. ● Mise en place d'une culture commune à trois mentions MEEF. Campagne d'évaluation 2017 – 2018 - Vague D Département
d'évaluation des formations
4 Principaux points faibles : ● Encore trop d'autonomie des parcours au sein de la mention (manque d'harmonisation des maquettes, incohérence dans l'attribution des ECTS des éléments commun) ● Pas de conseil de perfectionnement et de pilotage fort. ● Cloisonnement entre les enseignements disciplinaires et les enseignements dits de culture commune. ● Peu de débouchés identifiés (adaptés au grade de master) pour les titulaires du diplôme non lauréats du concours. ● Pas de suivi de l'acquisition des compétences. ● Ouverture de certains parcours dépendante de l'organisation d'un concours. ANALYSE DES PERSPECTIVES ET RECOMMANDATIONS
Ce master Métiers de l'enseignement, de l'éducation et de la formation - Second degré est une structure plurielle où les identités des parcours disciplinaires occultent parfois l'appartenance à une mention commune. Les modalités pour plus d'harmonie et de cohérence ont été décrites dans le dossier mais doivent encore être pleinement et uniformément mises en oeuvre, pour épouser le cadrage proposé par l'ESPE. Il conviendrait que les parcours adoptent la même terminologie et harmonisent leurs pratiques, notamment pour les horaires et l'attribution des crédits ECTS sur des enseignements présentés comme communs, permettant d'assurer une bonne lisibilité. La mise en place d'un conseil de perfectionnement faciliterait ces avancées et permettrait les échanges de pratiques, les propositions constructives et un meilleur contrôle-qualité à l'interne. De même, une véritable politique d'évaluation des enseignements permettrait de donner davantage de cohérence à l'ensemble. Il serait bienvenu de suivre particulièrement les diplômés de master non admis au concours. Une réflexion sur les compétences transversales construites (gestion de groupe, leadership, gestion de conflit, médiation, communication, etc.) et sa formalisation permettrait peut-être des ouvertures vers d'autres métiers, d'autres projets professionnels notamment pour les étudiants en situation d'échec au concours. Il s'agirait de proposer d'autres voies et projets en adéquation avec le niveau d'études bac+5 en termes de responsabilités. La recherche de partenariats avec le monde socio-économique permettrait également d'élargir les perspectives et d'identifier des débouchés nouveaux, même si un complément de formation pourrait s'imposer aux étudiants. MASTER MÉTIERS DE L'ENSEIGNEMENT, DE L'ÉDUCATION ET DE LA FORMATION - ENCADREMENT ÉDUCATIF
Établissement : Université Paris-Sorbonne, Université Paris 1 Panthéon-Sorbonne, Université Sorbonne Nouvelle - Paris 3, Université Paris Descartes, Université Pierre et Marie Curie, Université Paris Diderot, Institut national des langues et civilisations orientales – INALCO
PRÉSENTATION DE LA FORMATION
La mention de master Métiers de l'éducation, de l'enseignement et de la formation (MEEF) - Encadrement éducatif (EE) de l'Université Paris-Sorbonne répond au référ entiel métier des personnels de l' éducation et des conseillers principaux d'éducation – CPE (bulletin officiel n°30 du 25 juillet 2013). Les objectifs scientifiques du master MEEF-EE visent à donner aux étudiants les bases scientifiques et professionnelles nécessaires à l'exercice du métier de CPE, suite à l a réussite du concours po sitionné durant la première année de m aster (M1). La seconde année (M2) est organisée en deux cur sus : un cursus alternant pour les étudiants fonctionnaires stagiaires et u n cursus adapté destiné aux étudiants devant présenter à nouv eau le concours. Les enseignements ont lieu alternativement sur les campus de l' Université Paris Descartes - Centre des Sa ints-Pères et de l'École supérieure du professorat et de l'éducation (ESPE) de Paris - sites Batignolles et Molitor. ANALYSE Finalité
Les objectifs de l a formation, préparation au co ncours en M 1 et professionnalisation progressive des étu diants engagés dans le master, ainsi que les compétences sont clairement présentés (bilan/autoévaluation et fiche du répertoire national des c ertifications professionnelles - RNCP). Le parcours est c onstruit autour de blocs de compétences se décli nant en u nités d'enseignement (UE) dont la liste est en cohérence avec les objectifs scientifiques et professionnels. Les connaissances disciplinaires en éducation attendues relèvent de la sociologie, la philosophie, la psychologie et l'histoire. L'acquisition de savoirs et de co mpétences interdisciplinaires en éducation est a rticulée à l 'apprentissage de m éthodologies de rech erche et d'analyse de si tuations professionnelles et à la préparation au concours et au métier de CPE. Département d'évaluation des formations 1 Positionnement dans l'environnement
Ce master ressemble à la plupart des masters MEEF-EE au n iveau national. L'absence de syn ergie avec les formations plus proches géographiquement, les masters MEEF d'Ile de France rattachés aux ESPE de Versailles et de Créteil, est regrettée et regrettable. Un partenariat entre l'Université Paris-Sorbonne – ESPE de l'académie de Paris et l 'Institut catholique de Paris est évoqué dans le dossier sans pour autant qu'apparaisse de coop ération effective entre les deux formations. La relation avec l'environnement de la recherche est bien établie : le master est adossé au laboratoire de recherche CERLIS - Centre de recherche sur les liens sociaux - qui comporte un pôle de recherche en soci ologie de l'éducation (sociologie de l'enfance, de l'adolescence et des m odèles éducatifs) et au laboratoire EDA – Education discours apprentissage - dont les recherches portent sur les questions d'enseignement, d'apprentissage, sur les pratiques professionnelles en éducation, sur la philosophie et l'anthropologie de l'éducation.
Organisation pédagogique
La structure de la formation clairement présentée répond aux objectifs 1) d'acquisition d'une culture académique solide ; 2) d'apprentissage de m éthodologies de recherche e t d'analyse de si tuations professionnelles permettant de ré aliser un m émoire professionnel de n iveau master, 3) d'acquisition de compétences réflexives visant à se situer et agir dans un établissement scolaire dans l e cadre des mi ssions du CPE. En M1 comme en M 2, des m utualisations partielles avec le master Sciences de l'éducation ainsi qu'avec les autres parcours MEEF (tronc commun, initiation à la recherche) sont mises au service de la construction d'une culture commune et de c ences transversales de profe ssionnels de l'éducati on. Quelques limites à l a mutualisation sont identifiées (complexité d'organisation, risque de redondance) et reconnus par les responsables du diplôme. Les enseignements en présentiel constituent la part la plus importante du dispositif de formation, la répartition en cours magi straux et tr avaux dirigés laisse la place à une di versité de prati ques pédagogiques classiques ou innovantes (adaptation des outils informatiques à la formation, travail autour de l a classe inversée, mise en place de m odalités variées selon l es publics concernés). La formation au num érique, en li en avec la profession, est présente et la certificat informatique et internet niveau 2 ensei gnant (C2i2e) est proposée aux étudiants. Département d'évaluation des formations 2 Pilotage
La part des enseignants-chercheurs relativement importante au sei n de l'équipe pédagogique assure une formation ancrée dans la recherche en éducation. Trois formateurs (deux CPE et un IA–IPR - inspecteur académique-inspecteur pédagogique régional) contribuent à l a formation professionnelle de l a formation, ce qui peut apparaître un peu faible au regard des effectifs étudiants et des probl ématiques liées aux stages. Bien que la part des profess ionnels puisse être renforcée, l'investissement sur plusieurs années des professionnels associés en exercice et tuteurs témoigne de la qualité du pilotage. Le conseil de perf ectionnement est en place depuis la création de l a formation, sa composition et son fonctionnement sont indiqués précisément dans le document ainsi que les pistes d'améliorations qui lui sont imputables, comme l'évaluation de la formation par les étudiants et la mise en place d' un livret de compétences.
Résultats constatés
Le nombre d'inscrits dans le master ainsi que les taux de réussite sont relativement stables et s atisfaisants au regard des données nationales. Trois étudiants ont poursuivi un cursus doctoral après le master, deux démarches de validation des acqui s de l' expérience (VAE) globales ont été engag ées mais n'ont pas abou ti, ce qui n'est pas inhabituel. Les donné es sur le devenir des étudi ants sont difficiles à mobiliser, qu'il s'agisse de l'insertion des étudiants titulaires du master mais non titulaires du concours ou même des affectations des lauréats au concours à l'issue du M2 ; la mention ne dispose pas aujourd'hui d'un suivi d'insertion efficient. Une attention particulière est portée aux étudiants qui échouent au CONCLUSION
Principaux points forts : ● La mise en place d'un tronc commun permettant le développement d'une culture commune à toutes les mentions MEEF. ● L'articulation avec la recherche et avec certains partenaires de terrain. ● L'attention portée aux étudiants ayant échoué au concours CPE. ● La définition stratégique du pilotage du master MEEF, ESPE/Université. Principaux points faibles : ● Le suivi de la professionnalisation : formalisation des rapports entre tuteurs ESPE et tuteurs terrain. ● Le manque de suivi des diplômés
ANALYSE DES PERSPECTIVES ET RECOMMANDATIONS
Cette mention de m aster MEEF est rem arquablement construite, bien pilotée et m ême si les efforts doi vent être poursuivis elle est attentive aux étudiants et à leur devenir : elle pourrait jouer un rôle moteur dans l'organisation et le pilotage des autres mentions de l'ESPE. L'analyse du fonctionnement du m aster qui est présentée dans ce dossier rend compte d'une procédure d'autoévaluation amplement engagée. Le lien avec la recherche, déjà bien présent et qui promet d'être renforcé par la participation au Groupement interdisciplinaire en recherche de l'ESPE, contribue à répondre à des questions sur l'apprentissage, l'enseignement, la formation, l'éducation en lien avec les demandes de terrain. La mise en relation des recherches sur le travail des équipes éducatives, les savoirs, les sujets apprenants, les outils et les contextes devrait permettre de faire émerger Département d'évaluation des formations 3 de nouvelles thématiques de rech erche et de nouvelles connaissances, particulièrement pertinentes pour l a formation. Une attention particulière devra être portée sur : - une concertation voire une coopération avec les deux autres ESPE de la région Ile de France qui proposent une formation similaire, en vue de mutualisations pédagogiques (cours, organisation des stages sur des terrains qui sont communs, formalisation des relations avec les tuteurs de stage). - les modalités d'organisation, d'encadrement et d'évaluation des stage s, à m ettre en lien avec la nécessité de renforcer l'équipe pédagogique par un nombre de formateurs C
plus important. - un développement
encore plus affirmé des
objectifs de formation et d'insertion hors Éducation Nationale MASTER MÉTIERS DE L'ENSEIGNEMENT, DE L'ÉDUCATION ET DE LA FORMATION - PRATIQUES ET INGÉNIERIE DE FORMATION
Établissement : Université Paris-Sorbonne, Université Paris 1 Panthéon-Sorbonne, Université Sorbonne Nouvelle - Paris 3, Université Paris Descartes, Université Pierre et Marie Curie, Université Paris Diderot, Institut national des langues et civilisations orientales – INALCO
PRÉSENTATION DE LA FORMATION
Cette mention Métiers de l'enseignement de l'éducation et de la formation – Pratiques et ingénierie de la formation (MEEF-PIF), co-accréditée entre sept établissements d'enseignement supérieur parisiens, est portée par l'École supérieure de professorat et d'éducation (ESPE) de l'Académie de Paris, composante de l'Université ParisSorbonne. ANALYSE Finalité
Les objectifs des différents parcours de ce master sont explicites : ils visent à donner les capacités de conception, d'organisation et d'animation de formations dans les secteurs relatifs à l'adaptation et la Campagne d'évaluation 2017 – 2018 - Vague D
Département d'évaluation des formations
1 scolarisation d'élèves à besoins éducatifs particuliers (préparation de certificats de l'Éducation Nationale) ; de formation de formateurs (préparation de certificat de l'Education Nationale) et de l'ingénierie de la formation en lien avec l'utilisation des médias numériques. Les intitulés des différents parcours sont en cohérence avec les objectifs présentés, le contenu de la formation (visible sur la maquette du premier parcours) et les débouchés envisagés pour les diplômés. Il est à noter que les deux premiers parcours sont dédiés à la formation continue et s'adressent à des professionnels enseignants.
Positionnement dans l'environnement
Dès sa construction, cette formation s'est voulue originale et complémentaire par rapport à celles proposées dans l'environnement local, et ce, après une identification des besoins en concertation avec l'État, les partenaires sociaux et les régions. La recherche est bien représentée : une unité de formation à la recherche est proposée au sein de chacun des parcours et au niveau des deux années - au moins pour le parcours Métiers de l'adaptation et de la scolarisation des élèves à besoins éducatifs particuliers pour lequel il existe une déclinaison de la maquette ; de nombreux laboratoires en éducation, issus des différentes institutions délivrant le diplôme participent à cette offre. Le monde professionnel est bien présent au travers du rectorat, puisque deux au moins des parcours proposés sont directement liés à des certifications complémentaires de l'Éducation Nationale et s inscrivent dans une démarche de formation continue pour les enseignants. Le monde associatif, notamment pour le parcours Métiers de l'adaptation et de la scolarisation des élèves à besoins éducatifs particuliers, est partenaire avec les associations ARIS (Association régionale pour l'intégration des sourds) et DECLIC (intervention cognitive et comportementale). Il n'y a ni coopération internationale, ni mobilité internationale explicitée et on peut regretter que dans la maquette la langue vivante soit au choix (langue vivante ou initiation à la langue des signes). Cette alternative est regrettable et non conforme au cadre national des formations.
Organisation pédagogique
Cette offre de formation s'articule de la préparation au métier en première année (M1) à la réflexion sur le métier en seconde année (M2). Au niveau du premier parcours, si le M1 vise à la préparation des certificats de l'Éducation Nationale et paraît professionnalisant, le M2 lui est plus ramassé (cinq unités d'enseignements (UE) au lieu de sept en M1), et vise à construire une posture professionnelle laissant une part importante à la réflexivité. La recherche pourrait néanmoins devenir un axe fort de ce M2. Des mutualisations sont prévues entre parcours : chacun des trois parcours comporte une UE portant sur le développement de l'identité professionnelle d'un formateur ou d'une personne ressource afin de développer une culture commune ; de même, certaines UE de parcours pourront être suivies par des étudiants inscrits dans un des deux autres parcours (UE marché commun). Le détail des UE est présenté pour le parcours Métiers de l'adaptation et de la scolarisation des élèves à besoins éducatifs particuliers. La professionnalisation est présente au niveau du cursus, que ce soit au niveau du contenu (UE relatives à la connaissance du métier) ou des périodes d'application professionnelle (stage ou alternance). La question de l'insertion professionnelle ne se pose pas en tant que telle puisque tous les étudiants de ce parcours sont en emploi. L'organisation des enseignements tente de prendre en compte le public spécifique de professionnels : les cours sont en alternance au niveau du M1 parcours Métiers de l'adaptation et de la scolarisation des élèves à besoins éducatifs particuliers : trois semaines en cours, trois semaines en responsabilité pour les enseignants du primaire, et une journée de formation par semaine pour les enseignants relevant du second degré. Au niveau du M2 c'est une modalité mixte qui est proposée : cours en ligne/cours en présence (les étudiants étant en poste). L'évaluation des enseignements se fait selon un processus d'é continue. Avec des sites multiples, le dossier manque d'information sur la façon dont se répartissent au niveau géographique les différents enseignements. Pilotage Un enseignant-chercheur ou un enseignant assure la coordination de chaque parcours. Chaque UE est placée sous la responsabilité d'un enseignant de l'équipe pédagogique. Cette dernière est pluri-catégorielle. Elle comporte des enseignants-chercheurs, enseignants du premier et du second degré affectés à temps plein ou en service partagé à l'ESPE, mais aussi d'autres intervenants issus de partenariat académique et départemental.
| 11,542
|
2012ENMP0089_3
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,012
|
Comportement et endommagement des alliages d’aluminium 6061-T6 : approche micromécanique
|
None
|
French
|
Spoken
| 7,471
| 12,685
|
50 Caractérisations microstructurales et mécaniques des matériaux
Figure 35 : Opération de fermeture linéaire sur les précipités Mg2Si grossiers. La Figure 36 représente le nombre d’objets en fonction de la distance interprécipité ( x2x0,23 μm/pixel).
Le
nombre
des Mg2
Si grossiers et
les IMF diminuent de façon continue au cours des fermetures. Initialement, la densité des intermétalliques au fer (IMF) est plus importante, la distance entre ces IMF est donc plus faible. Par conséquent, le nombre de ces IMF diminue plus rapidement que celui des Mg2Si grossiers. Aucun palier n’a été mis en évidence par cette méthode. Il est à noter que le volume analysé (210x210x210μm3) est loin d’être le volume élémentaire représentatif (VER=560x560x560μm3). De ce fait, nous n’avons pas pu révéler l’anisotropie de répartition de précipités avec la fermeture linéaire sur ce volume. Une analyse sur un VER est souhaitable en perspective sous condition d’acceptation de la capacité du cluster de calcul.
51 Caractérisations microstructurales et mécaniques des matériaux 700 Mg2Si Quantity of objects 600 IMF 500 400 300 200 100 0 0 20 40 60 Distance inter-precipitate after close operations(μm) 80
Figure 36 : Résultats de la fermeture linéaire des précipités Mg2Si grossiers et des IMF.
II.3.4 Conclusions sur la caractérisation microstructurale
La caractérisation microstructurale s’est focalisée sur les éléments pertinents visà-vis de la compréhension puis de la simulation des mécanismes d’endommagement. La caractérisation microstructurale révèle la présence de différentes phases, qui sont : les précipités nanométriques de type « MgxSiy », intragranulaires; les dispersoïdes au chrome et au manganèse, intragranulaires; les précipités grossiers : Mg2Si gross et intermétalliques au fer (IMF), intergranulaires. La structure granulaire a été observée en tomographie X avec pénétration de gallium aux joints de grains. Il s’avère que les grains sont allongés suivant le sens de forgeage L. Par conséquent, les précipités grossiers sont alignés suivant cette direction.
52
Caractérisations microstructurales et mécaniques des matériaux
La caractérisation quantitative tridimensionnelle des précipités grossiers a été effectuée par analyses d’images 2D et 3D obtenues par tomographie X à l’ESRF sur la ligne ID19. Les principales conclusions sont : la fraction volumique des Mg2Si grossiers est fMg2Si=0,25%±0,06% et 0,43%±0,11% respectivement pour le matériau FLM3 et le matériau FL, paramètres d’entrée du modèle de rupture; la fraction volumique des IMF est fIMF=0,57%±0,14% et 0,59%±0,14% respectivement pour le matériau modèle FLM3 et le matériau FL, paramètres d’entrée du modèle de rupture; les dimensions moyennes de l’ellipsoïde (grand axe c, petit axe a et axe perpendiculaire aux deux précédents b) sont respectivement 13±3, 6±2 et 3±1 μm pour les précipités Mg2Si grossiers; les dimensions moyennes de l’ellipsoïde (grand axe c, petit axe a et axe perpendiculaire aux deux précédents b) sont respectivement 12±3, 7±2 et 4±1 μm pour les IMF; les méthodes utilisées dans ce chapitre ne permettent pas de calculer la distance inter-Mg2Si suivant les directions principales; la distance inter-IMF est estimée à 40±10, 80±20, 100±25 μm selon les directions L, S et T par la méthode LPE.
II.4 Propriétés Mécaniques
Ce paragraphe traite des essais mécaniques réalisés sur les matériaux d’étude. Les résultats de micro-indentation, des essais mécaniques de traction et de ténacité y sont présentés. Dans un premier temps, nous résumerons les résultats des essais de micro-indentation effectués dans la matrice et les précipités grossiers. Dans un second temps, nous présenterons les résultats issus des essais de traction menés sur des éprouvettes lisses. Enfin, la troisième partie abordera les essais de traction menés sur éprouvettes axisymétriques entaillées et sur éprouvettes de ténacité de type CT. 53
Caractérisations
micro
structurales
et
mécaniques
des matériaux
II.4.1 Étude du comportement mécanique des phases : microindentation
Une série de micro-indentations a été effectuée au moyen d’un microindenteur de type Berkovich en diamant, de forme pyramidale à base triangulaire sur une coupe métallographique dans le plan LS pour une charge de 1,5mN. La taille de l’emprunte est petite (de l’ordre de μm) par rapport à la taille des précipités, ainsi l’influence de la matrice sur la mesure des précipités est négligeable. Les intermétalliques au fer sont les plus durs, avec une dureté de 10,7 GPa. La matrice aluminium et les précipités Mg2Si grossiers ont des valeurs de dureté très similaires (~2,5 GPa, voir Tableau 6). La micro-indentation permet également de mesurer le module de Young local. Le module de Young des intermétalliques au fer est nettement supérieur à celui de la matrice et des Mg2Si avec une valeur d’environ 113 GPa. La matrice d’aluminium présente un module de Young de 70 GPa et celui des Mg2Si est d’environ 33GPa.
Propriétés mécaniques
Matrice Al Mg2Si IMF Dureté (GPa) 2,4(±0,4) 2,5(±0,9) 10,7(±5,9) Module de Young (GPa) 69,8(±13,4) 32,7(±25,2) 112,6( 34,7) Tableau 6 : Valeurs moyennes de dureté et de module de Young obtenues par microindentation. Ces précipités possèdent des propriétés mécaniques différentes en termes de dureté et de module de Young de celles de la matrice d’aluminium. Du fait de ces différences de comportement, les précipités grossiers constituent des zones d'incompatibilité de déformation qui semblent être à l'origine de l'endommagement des matériaux. Après cette caractérisation à l’échelle microscopique, nous découvrons les propriétés mécaniques macroscopiques des matériaux étudiés. Les résultats des essais de traction et de ténacité sont présentés dans les paragraphes suivants.
54 Caractérisations microstructurales et mécaniques des matériaux
II.4.2 Propriétés mécaniques en traction
Une étude sur l’effet de la taille des éprouvettes lors des essais de traction a été réalisée et est présentée en Annexe A. On ne note pas d’évolution notable des propriétés mécaniques en traction. Dans la suite de ce chapitre, deux géométries d’éprouvettes de traction homothétiques sont utilisées : les éprouvettes avec un diamètre de 10 mm et de 4 mm.
II.4.2.1 Procédure expérimentale
Des essais de traction ont été réalisés à température ambiante suivant trois directions principales : L, T et S. Les essais sont effectués à vitesse de traverse imposée et constante de manière à obtenir une vitesse de déformation sur la longueur utile de l’ordre de 10-4 s-1. Ces essais ont été réalisés au laboratoire LISN du service SEMT du CEA sur une machine de traction de capacité 100kN. Le dépouillement des essais est effectué selon la norme NF EN 10002-1 [55]. La déformation conventionnelle (l’allongement) est calculée en divisant le déplacement du vérin par la longueur de la partie utile calibrée de l’éprouvette : Eq. 2 L’allongement uniforme Ag est défini comme la formation conventionnelle à l’apparition de l’instabilité plastique (force maximale) et l’allongement total At est défini comme la déformation conventionnelle à la rupture d’éprouvette. La contrainte conventionnelle est déterminée en divisant la force par la section initiale de l’éprouvette suivant la formule : Eq. 3 Le dépouillement en termes de déformation et de contrainte conventionnelles (ingénieur) ne prend pas en compte l’évolution de la géométrie. Pour en tenir compte on définit alors les grandeurs rationnelles de la manière suivante :
55 Caractérisations microstructurales et mécaniques des matériaux
Eq. 4 Eq. 5
Au-delà de l’instabilité plastique, la consolidation du matériau, résultant de l’écrouissage dû à la déformation plastique, n’est plus suffisante pour compenser la diminution de section, le phénomène de la striction apparait. La déformation devient alors hétérogène à l’échelle de l’éprouvette. Pour exploiter la courbe rationnelle au delà de l’instabilité, on définit le comportement au niveau de la section minimale en utilisant la contraction diamétrale donnée par l’équation suivante : Eq. 6 où a0 et a sont respectivement le rayon de section minimale initial et courant obtenus par la mesure de contraction diamétrale assurée par un système de mesure par nappe laser [56, 57]. Ce système de mesure est schématisé sur la Figure 37 et est composé de deux parties : (1) deux nappes lasers de précision de 3μm pour mesurer la déformation rationnelle de l’éprouvette installées en direction orthotrope; (2) le module motorisé permettant aux nappes lasers de se déplacer périodiquement suivant le sens de traction afin de scanner le profil complet de l’éprouvette pendant l’essai.
56 Caractérisations microstructurales et mécaniques des matériaux
Figure 37: Description de la machine de traction avec le système de mesure par nappe laser: (a) machine de traction; (b) système de mesure par nappe laser vu du dessous [56]. Au delà de l’instabilité, le chargement devient multiaxial du fait de l’effet d’entaille induit par la striction. Pour prendre en compte cet effet, la contrainte rationnelle est corrigée en utilisant la formulation proposé par Bridgman [58] : Eq. 7 où la section minimale courante S=a2. Le rayon de courbure R est déterminé à partir des mesures obtenues par les nappes laser. La méthode consiste à effectuer un ajustement polynomial de ces données de manière à calculer le rayon de courbure suivant la formule : Eq. 8 Une illustration de la détermination de la fonction r(z) est présentée sur la Figure 38. 57 Caractérisations microstructurales et mécaniques
des matériaux Figure 38: Principe de calcul du rayon de courbure dans la zone de striction [56].
II.4.2.2 Résultats des essais de traction sur éprouvette 10
La Figure 39 présente les courbes de traction conventionnelles et rationnelles corrigées par la méthode Bridgman du matériau FLM3. Les essais de traction ont été 58 Caractérisations microstructurales et mécaniques des matériaux réalisés sur des éprouvettes de diamètre 10mm suivant les trois directions principales L, T et S. Les courbes conventionnelles montrent que l’instabilité plastique apparait pour un allongement uniforme Ag% de 7-8% pour les sollicitations suivant les sens L et S. Elle apparait plus tôt (5%) pour le sens T. Cette différence est faible au regard des différences d’allongement à rupture At%. Cet allongement est à environ 13,5% pour l’éprouvette sollicitée suivant L, soit deux fois plus que pour le sens T. En ce qui concerne la limite d’élasticité (Rp0,2) et la résistance mécanique (Rm), aucune différence significative n’a été constatée entre les trois sens de sollicitation. En ce qui concerne les courbes rationnelles avec correction Bridgman, nous constatons les mêmes conclusions: l’anisotropie de la limite d’élasticité et de l’écrouissage est négligeable devant l’anisotropie de la ductilité. Les trois courbes se superposent jusqu’à la rupture de chacune des éprouvettes. L’anisotropie est portée essentiellement sur l’endommagement et non pas sur le comportement plastique, qui pourra être considéré comme isotrope. Nous négligerons donc l’anisotropie de comportement et ajusterons, pour le comportement élastoplastique suivant les trois directions, une loi unique, celle de Voce [59]. Cette loi tend vers une contrainte établie avec la déformation. Elle se présente sous la forme suivante : Eq. 9 où 0=288MPa est la limite d’élasticité du matériau, s=375MPa et b=12 sont des paramètres ajustables à partir des courbes rationnelles. L’application de cette loi pour des structures pouvant subir de fortes déformations, nous a conduits à utiliser la correction Bridgman intégrant des rayons caractéristiques de la striction mesurés par le système de nappe laser pour identifier les paramètres de la loi pour des déformations importantes. Il nous a paru plus intéressant d’utiliser cette correction pour obtenir une valeur expérimentale, plutôt que d’extrapoler le comportement identifié pour des faibles déformations sans aucune donnée expérimentale aux fortes déformations. L’allure de cette loi pour le matériau FLM3 est représentée en noir sur la Figure 39. Cette loi proposée sera par la suite utilisée pour les simulations des essais par éléments finis.
59 Caractérisations microstructurales et mécaniques des matériaux
500 400 Bridg. L Bridg. T (MPa) Bridg. S 300 Voce law: FLM3 Conv. L 200 Conv. T Conv. S 100 0 0
20 30 40 50 (%) Figure 39 : Courbes contrainte-déformation conventionnelles et rationnelles avec correction Bridgman. La loi de comportement Voce est également présentée. II.4.2.3 Influence du sens de sollicitation
Afin de préciser l’anisotropie d’endommagement du matériau FL, des essais de traction sont effectués sur des éprouvettes avec un diamètre de 4 mm prélevées dans le plan LT tous les 10° (Figure 40). Deux paramètres mécaniques sont tracés sur cette figure : la limite d’élasticité (Rp0,2) et l’allongement total (At). La limite d’élasticité n’est pas sensible à l’orientation de traction par rapport au sens de forgeage. Ces valeurs varient entre 300MPa et 320MPa. En revanche, l’allongement total (At) est plus faible suivant le sens T que suivant le sens L. Ces résultats confirment que le matériau présente un comportement isotrope et une anisotropie d’endommagement plus marquée.
60 Caractérisations microstructurales et mécaniques des matériaux
Figure 40 : Évolutions de (a) la limite d’élasticité (Rp0,2) et (b) l’allongement total (At) en fonction du sens de sollicitation.
Le
coefficient
de
st
riction
caractérise la diminution relative de section mesurée après la rupture. Cette valeur représente la ductilité réelle du matériau et ne dépend que des mécanismes d'endommagement, alors que la ductilité mesurée avec l'allongement total en traction dépend à la fois du comportement et de l'endommagement.
La
Figure 41
montre
que l'
allong
ement total varie de manière linéaire avec le coefficient de
st
riction. Par conséquent, nous pouvons conclure que l'allongement en traction est essentiellement dépendant des mécanismes d'endommagement. Dans la suite de l'étude nous ne jugeons donc pas nécessaire de s'attarder sur la description de l'anisotropie de comportement, nous d'endommagement. 61 nous focaliserons sur la description de l'anisotropie Caractérisations microstructurales et mécaniques des
aux Figure 41 : Évolution de l’allongement total (At%) en fonction du coefficient de striction (Z%). II.4.3 Caractérisation de la résistance à l’entaille
Contrairement au comportement, les mécanismes d’endommagement dépendent fortement du taux de triaxialité (rapport entre la contrainte hydrostatique et la contrainte équivalente, T=m/eq). Dans cette partie nous détaillerons les propriétés mécaniques des alliages en présence de l’entaille. Deux types d’essais sont réalisés pour cet objectif : les essais de traction sur éprouvettes axisymétriques entaillées (AE) et les essais de ténacité sur éprouvettes CT. Pour un essai de traction sur éprouvettes AE, nous distinguons trois types d’éprouvettes : les éprouvettes avec des rayons d’entaille de 10mm, 4mm et 2mm qui sont appelées respectivement AE10, AE4 et AE2 (Figure 42). Avec la diminution des rayons, les entailles sont de plus en plus sévères. Ces éprouvettes permettent de tester la résistance à l’endommagement pour des niveaux de triaxialité intermédiaires entre des éprouvettes lisses et des éprouvettes CT. Pour un essai de ténacité CT (Figure 46), les éprouvettes de 12,5mm d’épaisseur sont préfissurées en fatigue afin de minimiser le rayon en fond d’entaille. Une rainure latérale est introduite pour maintenir les conditions de déformation plane durant la sollicitation. L’intégral du contour J est utilisée comme valeur de ténacité pour nos 62 Caractérisations microstructurales et mécaniques des matériaux alliages. Cette valeur est déduite à partir de la courbe force-ouverture par la norme ISO 12135:2002 [60]. 10 7 10 R10 10 R4 10 R2
Figure 42: Géométrie des éprouvettes lisses et AE
II.4.3.1 Essais de traction sur éprouvettes axisymétriques entaillées
La Figure 43 présente les évolutions de la contrainte conventionnelle en fonction de la contraction diamétrale des essais de traction sur éprouvettes axisymétriques entaillées pour le matériau forgé modèle. Trois géométries d’éprouvettes sont présentées : AE10, AE4 et AE2. Pour chacune des trois géométries, les trois directions principales ont été testées. Pour une géométrie donnée, on ne note pas d’anisotropie de comportement. Les courbes sont très proches, seules les contractions à la rupture diffèrent. Afin de faciliter la visualisation, seule la courbe la plus ductile est représentée. Les contractions à la rupture sont représentées par des traits verticaux sur les courbes pour les trois directions de sollicitation. On tire les conclusions suivantes : L’évolution de la force est d’autant plus importante que le rayon d’entaille est faible. Ce phénomène est lié à la multiaxialité induite par l’entaille qui est d’autant plus importante que le rayon d’entaille est faible. Nous retrouvons l’anisotropie de ductilité pour les trois géométries d’éprouvettes. Le sens L présente une ductilité plus importante que le sens S qui est plus ductile que le sens T. La contraction à rupture est d’autant plus faible que le rayon d’entaille est faible pour les sens de sollicitation L et S. On note cependant des exceptions pour le sens T où les contractions à la rupture sont proches de 5%.
63 Caractérisations microstructurales et mécaniques des matériaux
Figure 43 : Courbes contrainte-déformation conventionnelles des essais de traction sur éprou
s axisymétriques entaillées. La Figure 44 présente le profil de l’éprouvette lisse durant l’essai de traction pour différentes
contract
ions dia
métrales
par le système de
mesure laser.
A
partir de la force maximale (8% de contraction diamétrale), la striction apparait représentant l’instabilité de déformation. Le rayon d’entaille peut
ainsi être calculé sur ces courbes.
La Figure 45 présente les évolutions du rayon d’entaille de l’éprouvette en fonction de la contraction diamétrale pour les éprouvettes entaillées. Nous pouvons classer les éprouvettes en deux catégories : Les éprouvettes AE10 dont le rayon d’entaille diminue tout au long de l’essai. Les éprouvettes AE4 et AE2 dont le rayon d’entaille ne varie pas au cours de l’essai. Ces résultats différents suivant les matériaux témoignent d’une compétition entre l’allongement de l’éprouvette et la déformation dans la section minimale. En effet, si 64 Caractérisations microstructurales et mécaniques des matériaux l’allongement de l’éprouvette tend à augmenter le rayon de courbure de l’entaille, la déformation dans la section minimale provoque l’effet contraire. L’évolution du rayon de courbure suit l’effet dominant qui dépend de la capacité d’écrouissage et de l’endommagement du matériau. Il est difficile d’expliquer la différence entre les différentes géométries d’éprouvettes. Les investigations concernant le mécanisme d’endommagement dans les chapitres suivants nous aideraient pour ces analyses.
7 e=0.4% 15 e=8% 10 conv (%) e=10% 5 e=12% 0 e=13.73% 0 10 conv (MPa) 100 9.5 200 8.5 7.5 L 300 0 20 40 60 Longueur de l’éprouvette (mm) S 400
Figure 44 : Mesure du profil de l’
rouvette lisse durant l’essai de traction suivant le sens L par le système de nappe laser pour des contractions diamétrales à 0.4%, 8%, 10%, 12%, 13.73%. Rayon de courbure (mm) 12 10 8 AE10 6 4 AE4 2 AE2 0 0 5 10 15 20
Contraction diamétrale S/S0 (%) Figure 45 : Évolutions des Rayons de courbure en fonction de la contraction diamétrale des essais de traction sur éprouvettes axisymétriques entaillées. 65
10.5 Diamètre de l’ép
rou
vette
(mm) Specimen diameter (mm) Caractérisations microstructurales et mécaniques des matériaux
II.4.3.2 Essais de ténacité sur éprouvettes CT II.4.3.2.a Procédure expérimentale
Des éprouvettes de Compact Tension 12,5 (CT12,5) sont utilisées pour des essais de ténacité (Figure 46). Ces essais ont été réalisés selon des configurations suivantes : LS, TS, TL, ST, SL. Dans cette représentation, la première lettre correspond au sens de sollicitation et la deuxième représente la direction de la propagation de fissure. Ces essais sont réalisés sur une machine d’essai servo-hydraulique INSTRON avec une cellule de force de 25kN à la température ambiante. Le contrôle de l’essai est fait avec un asservissement en vitesse de déplacement imposé à l’aide d’un extensomètre qui mesure l’ouverture au niveau des lèvres de l’éprouvette. La vitesse de pilotage en ouverture est de 0,16mm/min. L’avancée de fissure est mesurée par la méthode des complaisances (décharge partielle de l’éprouvette). Cette mesure est ensuite comparée avec la mesure, sur le faciès de rupture, des longueurs caractéristiques associées par la méthode des 9 points [60]. En cas de différence significative entre les deux valeurs, les valeurs de l’avancée de fissure mesurées par complaisance sont décalées homothétiquement à partir de la force maximale pour faire coïncider la dernière mesure de complaisance avec la mesure de longueur relevée par la technique des 9 points. Le protocole d’essais et le dépouillement sont effectués conformément à la norme [60]. Pour caractériser la ténacité à l’amorçage, on utilisera la grandeur de J conventionnelle mesurée pour une propagation stable de 0,2mm, notée J0.2. Quand une propagation instable (à coup , Pop-In) intervient avant 0,2 mm de propagation, on définit la valeur de J à l’amorçage par la valeur de J au Pop-In, notée Jpi. La résistance à la propagation est caractérisée par la pente de la courbe J a, on note dJ/da cette grandeur. Certains essais sont interrompus afin d’effectuer des analyses d’endommagement par SRCT (Synchtron Radiation Computed Tomography) que nous détaillerons dans le paragraphe III.4.2.4. La Figure 46 présente le plan de l’éprouvette CT12.5 utilisée ainsi que le positionnement de l’échantillon prélevé dans les CT pour les analyses SRCT.
66
Caractérisations microstructurales et mécaniques des matériaux Échantillon tomographie X (1x1x10) mm3
Figure 46 : Géométrie de l’éprouvette de ténacité CT et de l’échantillon destiné à l’analyse SRCT (parallélépipède rouge).
II.4.3.2.b Résultats
Les résultats des essais de ténacité effectués sur le matériau FL sont présentés dans ce paragraphe. La Figure 47 présente la force appliquée en fonction de l’ouverture de fissure mesurée par extensomètre lors des essais de ténacité sur les configurations LS et TS. Il est apparu pour la plupart des essais un pop-in qui est associé à une chute brutale de plus de 5% de la valeur de la force. Cette chute de force a conduit à une avancée brutale de la fissure (voir Figure 48 présentant l’intégrale de contour J en fonction de l’avancée de fissure). Ces essais ont alors été interrompus par l’opérateur. Nous ne constatons pas de dispersion significative entre ces essais. L’anisotropie de ténacité est portée à la fois par une différence de force maximale et par une valeur de ténacité différente entre les configurations LS et TS. Les éprouvettes sollicitées suivant le sens L présentent une force maximale de 30% plus élevée que celles sollicitées suivant le sens T, ainsi les valeurs de ténacité des éprouvettes sollicitées suivant le sens L sont plus élevées (~25kJ/m2) que celles sollicitées suivant le sens S (~13,5kJ/m2). La pente des courbes de
67 Caractérisations
microstructurales et mécaniques des matériaux la Figure 48 représente la valeur de dJ/da qui est associée à la résistance à la propagation de fissure. Cette valeur est très faible pour les deux configurations.
5 LS Force (103 N) 4 3 pop-in TS 2 03-TS 01-TS 06-LS 05-LS 1 0 0 0,1 0,2 0,3 CMOD (mm) 0,4 0,5
Figure 47 : Courbe force-ouverture des essais de ténacité pour les configurations TS et LS (les nombres devant les configurations représentent les numéros d’éprouvettes). 30 LS J-Integral (kJ/m2) 25 20 pop-in 15 TS 10 03-TS 01-TS 06-LS 05-LS 5 0 0,00 0,20 0,40 0,60 a (mm) 0,80 1,00 1,20
Figure 48 : Courbe de ténacité J en fonction de l’avancée de fissure a pour les configurations LS et TS. 68 Caractérisations microstructurales et mécaniques des matériaux
Les courbes force-ouverture et les courbes intégrale de contour J-avancée de fissure a sont présentées sur la Figure 49 et la Figure 50 pour les configurations TL, ST et SL. La force maximale et la valeur de J de la configuration TL sont comparables avec celles de la configuration TS. Les essais sollicités suivant le sens S (configurations ST et SL) présentent une force maximale et une valeur de J plus élevée que les essais sollicités suivant le sens T. En revanche, l’essai suivant la configuration SL présente une instabilité de propagation de fissure qui a conduit à une propagation importante de la fissure (>1 mm). Tout comme les configurations LS et TS, ces essais présentent une résistance très faible à la propagation de fissure.
5 pop-in 4 Force (103 N) ST 3 instabilité TL 2 SL 14-ST 13-ST 11-SL 09-TL 1 0 0 0,1 0,2 0,3 CMOD (mm) 0,4 0,5
Figure 49 : Courbe force-ouverture des essais de ténacité pour les configurations ST, SL et TL. 69 Caractérisations micro
structural
es
et mécaniques des matériaux 30 J-Integral (kJ/m2) 25 20 instabilité pop-in ST 15 10 SL TL 09-TL 08-TL 14-ST 13-ST 5 0 0,00 0,20 0,40 0,60 0,80 a (mm) 1,00 1,20
Figure 50 : Courbe intégrale de contour J en fonction de l’avancée de fissure a pour les configurations ST, SL et TL. Le Tableau 7 récapitule les valeurs de ténacité (intégrale de contour J) pour le matériau FL. Dans la colonne pop-in ou instabilité de ce tableau, les fractions représentent le nombre d’instabilités ou de pop-in sur le nombre d’essais réalisés. Une anisotropie marquée est constatée entre les différentes configurations. Nous distinguons trois sortes de valeurs : les essais sollicités suivant le sens L présentent des valeurs de ténacité plus élevées (~25kJ/m2) que ceux sollicités suivant le sens S (~13,5kJ/m2). Les éprouvettes sollicitées suivant le sens T présentent les plus faibles valeurs de ténacité (~10kJ/m2). La valeur de dJ/da caractérisant la résistance à la propagation de fissure est très faible et doit être considérée comme nulle pour l’ensemble des essais.
JPi J0.2BL dJ/da (kJ/m2) (kJ/m2) (MPa) LS 25,1 ND 2/2 pop-in TS 10,6 2,7 2/2 pop-in Sens 70 pop-in ou instabilité Caractérisations microstructurales et mécaniques des matériaux TL 10,1 1,3 1/2 ST 13,8 2,2 1/2 pop-in ND 1/1 instabilité SL 13,1 Tableau 7 : Tableau récapitulatif des résultats des essais de ténacité. L’ensemble des essais de ténacité nous indique une faible résistance à la propagation de fissure pour cet alliage. Nous expliquerons la séquence d’endommagement et l’origine de l’anisotropie d’endommagement dans le chapitre suivant.
II.5 Bilan
Dans ce chapitre, une étude bibliographique a été exposée sur toutes les phases présentes dans l’alliage, les matériaux d’étude et les traitements thermomécaniques associés ainsi que l’influence de la microstructure sur la ténacité. La microstructure et les propriétés mécaniques des matériaux d’étude ont ensuite été caractérisées et présentées. Les observations de la microstructure montrent structure granulaire relativement fine (quelques centaines de micromètre). La structure granulaire est très anisotrope. Les grains sont allongés suivant la direction L avec un facteur 5 entre la longueur et la largeur du grain. Trois types de précipités sont présents dans l’alliage : des précipités nanométriques de type MgxSiy, des dispersoïdes au chrome et au manganèse ainsi que des précipités grossiers Mg2Si et des intermétalliques au fer. Ces derniers possèdent des propriétés mécaniques différentes de celles de la matrice, qui se traduisent par des incompatibilités de déformation susceptibles d’être à l’origine de l’endommagement. La quantification des précipités Mg2Si et des intermétalliques a été réalisée sur les volumes en 3D obtenus par tomographie X. La fraction volumique des Mg2Si grossiers est fMg2Si=0,25% et 0,43% respectivement pour le matériau modèle FLM3 et le matériau FL. La fraction volumique des IMF est respectivement fIMF=0,57% et 0,59% pour le 71 Caractérisations microstructurales et mécaniques des matériaux matériau modèle FLM3 et le matériau FL. Ces valeurs seront utilisées comme des paramètres d’entrée du modèle de rupture. Parallèle à la caractérisation microstructurale de l’alliage, des propriétés mécaniques sont obtenues à l’aide des essais de traction et de ténacité. Dans ce cadre, des essais de traction sur éprouvettes lisses ont été réalisés. Ces essais ont été effectués avec un nouveau système de mesure profilométrique permettant de mesurer à chaque instant de l’essai le profil de l’éprouvette. Cela a permis à l’aide des formules développées par Bridgman de déterminer la loi de comportement du matériau au-delà de l’instabilité plastique. La loi de Voce est utilisée pour décrire le comportement du matériau. Le comportement en traction montre une légère anisotropie sur la limite d'élasticité et la résistance mécanique. Une anisotropie importante de ductilité est constatée. Les éprouvettes sollicitées suivant le sens L sont ductiles que celles sollicitées suivant le sens S. La ductilité est minimale suivant le sens T. Des essais de traction sur éprouvettes axisymétriques entaillées ont également été réalisés afin d’évaluer la tolérance à la présence d’un défaut de l’entaille. Trois rayons d’entaille (AE10, AE4, AE2) sont testés afin d’étudier l’effet de la sévérité d’entaille, en d’autre terme l’effet de la triaxialité. Plus les entailles sont sévères, plus la force maximale est importante et plus la déformation à rupture est faible. Des essais de ténacité sont réalisés afin d’étudier le comportement des matériaux avec une entaille extrêmement sévère : en présence d’une préfissure. Une anisotropie des valeurs de ténacité de nos alliages forgés est mise en évidence. En accord avec les travaux de Dumont [61, 62] et Achon [63], les éprouvettes sollicitées suivant le sens L sont systématiquement plus tenaces que celles sollicitées suivant S. Les éprouvettes sollicitées suivant le sens T présentent la valeur de ténacité la plus faible. La résistance à la propagation est dans tous les cas très faible (dJ/da ~0) et comporte de nombreux popin.
72 Identification du mécanisme d’endommagement et l’anisotropie
Chapitre III Identification du mécanisme d’endommagement et conséquence pour l’anisotropie
Dans le Chapitre II, nous avons mis en évidence la présence de deux types de précipités grossiers dans cet alliage : Mg2Si grossiers et intermétalliques au fer (IMF). Certains auteurs ont montré que la ductilité et la ténacité de l’alliage étaient fortement dépendantes de ces phases grossières. L’évolution de l’endommagement ductile est souvent divisée en trois phases : germination de cavités sur ces précipités grossiers, croissance puis coalescence de cavités [64]. Par exemple, Yeh et Liu [65] ont montré la rupture des précipités grossiers durant la déformation plastique de l’alliage d’aluminium A357. Balasundaram et al. ont suggéré que l’endommagement dans les alliages d’aluminium est initié par la rupture des phases intermétalliques, puis suivi par la croissance et la coalescence des cavités [66]. Par ailleurs, ils ont indiqué que les intermétalliques au fer jouaient un rôle dominant dans le mécanisme d’endommagement dans les alliages 6061-T6 et 5086-O. Nous commençons l’étude de l’endommagement expérimental par des essais de traction interrompus sous MEB in-situ où la surface de l’éprouvette est observée et l’endommagement quantifiés à chaque stade de l’essai. Le taux de triaxialité des contraintes est un facteur important dans l’évolution de l’endommagement ductile [67]. C’est pourquoi, l’état de contrainte en surface n’est pas représentatif de l’état de contrainte en volume, car la surface est en condition de contrainte plane alors que le volume est plutôt en condition de déformation plane. Par conséquent, la cinétique d’endommagement peut différer entre la surface et le volume de l’éprouvette [68-71]. Afin d’investiguer le mécanisme d’endommagement dans le volume pour un taux de triaxialité plus élevé, des essais de traction avec éprouvettes axisymétriques entaillées présentant différents rayons d’entaille ont été réalisés jusqu’à la rupture de l’échantillon ou interrompus avant. Des échantillons ont été prélevés au centre des éprouvettes et observés 73 par tomographie X à l’ESRF. Afin d’identifier le mécanisme Identification du mécanisme d’endommagement et de l’anisotropie d’endommagement en présence d’une fissure, une expérience de laminographie X insitu est ensuite mise au point et présentée. Cet essai original permet de suivre l’évolution de l’endommagement durant la phase de propagation de fissure et de le quantifier par analyse d’images tridimensionnelles. L’anisotropie de l’endommagement est susceptible d’être liée à l’anisotropie associée à la microstructure, notamment à la répartition et à la forme des précipités grossiers. A la fin de ce chapitre, cette anisotropie sera analysée au moyen d’essais de ténacité interrompus réalisés suivant les configurations TS et LS. Pour ce faire, des échantillons ont été prélevés dans des éprouvettes de ténacité et observés par tomographie X.
III.1 Évolution de l’endommagement de surface (apport des observations sous MEB in-situ en traction)
Des essais de traction in-situ sous Microscopie Électronique à Balayage (MEB) sont des moyens dorénavant classiques d’étude de l’endommagement [72, 73]. Ces essais ont été menés afin de visualiser et quantifier la séquence de l'endommagement en surface de l’éprouvette. Ces essais, initialement développés au Laboratoire de Mécanique des Solides (LMS) de l’École Polytechnique, nécessitent la préparation soigneuse de la surface des échantillons indispensable pour les traitements d’image utilisés pour la mesure de critère de rupture (déformation critique) des précipités sur lesquels s’initient des cavités, puis afin d’évaluer la cinétique de croissance de ces cavités. III.1.1 Procédures expérimentales
Les essais sont réalisés sur la machine de traction in-situ disponible au LMS, conçue pour être utilisée dans le MEB-FEG avec un capteur de force de 1000N (Figure 51a). L’essai mécanique est réalisé en déplacement imposé dont la vitesse est fixée à 1 μm/s. Afin de faciliter les observations, une double entaille circulaire avec un rayon de 2 mm a été réalisée sur les éprouvettes plates de manière à localiser la déformation dans 74 Identification du mécanisme d’endommagement et de l’anisotropie une zone réduite (Figure 51b). La vitesse de déformation ainsi imposée est de l’ordre de 10-4 s-1.
Figure 51 : (a) Machine de traction in-situ dans le MEB-FEG, (b) plan d’éprouvette.
Afin d’observer l’évolution de l’endommagement, les essais de traction sont interrompus à plusieurs niveaux du chargement. A chaque interruption, deux types d’images à grande résolution sont prises: des images à fort grandissement sur les précipités grossiers (x4000, voir Figure 52a) et des images à faible grandissement (x300, voir Figure 52b) assemblées qui couvrent la moitié de la zone la plus déformée. Les images à fort grandissement réalisées sur les précipités grossiers nous permettent qualitativement d’identifier le mode de rupture de ces derniers, ainsi que la croissance et la coalescence des cavités qui en découlent. Les analyses sont ensuite effectuées sur les images prises à faible grandissement et assemblées afin de quantifier l’évolution de l’endommagement.
Figure 52 : Image MEB (a) à fort grandissement mettant en évidence la rupture des précipités grossiers, (b) à faible grandissement destinée au traitement d’images. 75 Identification du mécanisme d’endommagement et de l’anisotropie
Sur certaines éprouvettes, un dépôt de micro-grilles d’or a été réalisé par microélectrolithographie avec un pas de 2 μm (Figure 53a). Le champ des déformations locales a pu ainsi être déterminé par corrélation d’images [74, 75]. Cette technique est basée sur la mesure du champ de déplacement par minimisation d’une fonction de corrélation associée à deux points matériels homologues correspondant à une évolution de l’échantillon entre deux états de déformation. Les points homologues sont associés à la distribution de niveau de gris au sein d’une imagette (zone d’intérêt). La carte de déformation a été calculée par le logiciel Correlmanuv [76]. Cette carte est ensuite superposée à la microstructure. Un exemple est illustré sur la Figure 53b pour une déformation vraie moyenne de 15%.
Figure 53 : (a) Micro-grille d’or déposée sur l’éprouvette; (b) champ de déformation locale suivant l’axe de sollicitation obtenue par corrélation d’images. L’évolution de l’endommagement est mesurée à partir des images prises à faible grandissement et assemblées par le logiciel ImageJ avec le module MosaicJ [77]. Cette image assemblée couvre la moitié de la zone entre l’entaille et le centre de l’éprouvette dans la zone la plus déformée (Figure 54). Cette zone est ensuite divisée en quatre souszones correspondant à différentes valeurs de déformations locales, préalablement obtenues par calculs éléments finis réalisés sur les éprouvettes. L’évolution de l’endommagement associée aux différentes valeurs de déformation est étudiée quantitativement dans ces mêmes zones par analyse d’images sous le logiciel Visilog [78]. Tout d’abord dans l’image de référence, la fraction surfacique et la densité des 76 Identification du mécanisme d’endommagement et de l’anisotropie deux types de précipités sont calculées pour chaque zone d’analyse. Pour chaque niveau de déformation, les précipités endommagés sont retirés au fur et à mesure qu’ils s’endommagent. Nous considérons que la surface totale des précipités grossiers peut être assimilée à celle des cavités quand ils sont endommagés. Ainsi l’incrément de fraction surfacique d’endommagement est égal à la fraction surfacique du précipité endommagé. La fraction surfacique et la densité d’endommagement initié sur les deux types de précipités grossiers sont ensuite obtenues pour différents chargements. Étant donnée la symétrie de l’éprouvette, l’endommagement est moyenné entre les zones 1 et 2 ainsi qu’entre les zones 3 et 4. Cette méthode permet de quantifier les rôles joués respectivement par les Mg2Si et les intermétalliques au fer dans le mécanisme d’endommagement, en tenant compte des incertitudes du à l’erreur de mesure induit par le MEB. Cette erreur est essentiellement due au contraste trop faible entre les cavités et les précipités Mg2Si grossiers. Nous comparerons donc ces résultats obtenus au MEB avec les mesures réalisées par tomographie X pour lesquelles le contraste est suffisamment important pour discriminer les objets analysés. Figure 54 : Définition des zones d’analyses d’images par rapport à la géométrie de l’éprouvette. 77 Identification du mécanisme d’endommagement et de l’anisotropie
Deux configurations de sollicitation sont testées dans cette étude : LS et TS. La première lettre correspond au sens de sollicitation et la seconde au sens de l’entaille. Dans un premier temps, nous présenterons les résultats qualitatifs de la séquence d’endommagement de cet alliage. Dans la deuxième partie, l’évolution d’endommagement quantitative sera présentée.
III.1.2 Résultats qualitatifs de l’évolution de l’endommagement de surface
La Figure 55 représente la séquence d’endommagement dans deux zones d’observation proches du centre de l’éprouvette. L’endommagement s’initie précocement sur les précipités grossiers de Mg2Si par décohésion de l’interface précipité/matrice. En effet, on constate l’amorçage alors qu’en moyenne, le comportement de l’éprouvette est encore dans le domaine élastique. Ensuite les précipités se rompent par clivage. Pour les intermétalliques au fer (IMF), l’endommagement apparaît bien plus tardivement par rupture du précipité par clivage. Enfin, la rupture de l’éprouvette se produit par croissance et coalescence des cavités formées préalablement sur les précipités. 78 Identification du mécanisme d’endommagement et de l’anisotropie
Figure 55 : Évolution de la microstructure pendant l’essai de traction sous MEB in-situ sur deux zones d’observations. Nous détaillerons, par la suite, de manière qualitative les étapes associées à l'endommagement rencontré lors d'essais de traction in-situ (nucléation, croissance et coalescence des cavités). III.1.2.1 Nucléation de cavités
La nucléation de cavités est souvent liée à la présence de précipités dans les matériaux [19, 79]. Nous observons que les modes d’amorçage concernant les précipités sont la décohésion de l'interface inclusion/matrice et la rupture de particules par clivage, ceci quelle que soit la fraction surfacique des précipités (Figure 56a). Ce mode de nucléation de cavités est observé par Goods et Brown [80] qui suggèrent que l’amorçage est d’autant plus facile que la taille des précipités est importante. Les décohésions et les microfissures sont orthogonales à la direction de traction. Lassance [81] a indiqué que les modes d’amorçage des intermétalliques au fer sont liés à leur orientation. La plupart des précipités orientés entre 0° et 45° par rapport à la direction 79 Identification du mécanisme d’endommagement et de l’anisotropie de sollicitation présente une rupture par clivage alors que dans le cas de ceux orientés entre 45° et 90°, on observe des décohésions de l’interface précipité/matrice. Dans notre alliage, la décohésion précipité/matrice et la rupture par clivages coexistent pour les précipités Mg2Si grossiers tandis que l’amorçage pour les intermétalliques au fer (IMF) s’effectue uniquement par le mode de rupture par clivage. L’absence de la décohésion entre les IMF et la matrice suggère que l’interface IMF/matrice présente une grande résistance mécanique. Certains auteurs ont remarqué dans les alliages d’aluminium, la présence de deux populations de précipités, l’une avec une faible résistance à la nucléation de cavités et l’autre, présentant souvent une plus petite taille de précipité, avec une meilleure résistance [30, 82-84]. La seconde population de pré és, notamment les précipités de dispersoïdes au chrome et au manganèse, peuvent dans certains cas avoir des effets dominants vis-à-vis de la coalescence des cavités [85-87]. La décohésion d’interface entre les précipités Mg2Si grossiers et la matrice peut apparaître très tôt même au cours du chargement élastique global. Les précipités allongés suivant la direction de sollicitation se rompent en plusieurs fragments (Figure 56b). Les microfissures dans les précipités s’orientent perpendiculairement à la direction de sollicitation macroscopique. Le nombre de fragments est d’autant plus nombreux que la longueur de précipité est importante.
80 Identification du mé
canisme
d’
endommagement
et de l’anisotropie Figure 56 : Micrographies MEB obtenues pendant l’essai de traction in-situ. Deux mécanismes de nucléation sont observés : décohésion de l’interface précipité/matrice et rupture de précipité par clivage.
III.1.2.2 Croissance de cavités
Après la nucléation, les cavités initialement plates issues de la décohésion de l’interface ou de la rupture par clivage s’élargissent progressivement par déformation plastique de la matrice (Figure 57). La ductilité varie exponentiellement avec le taux de triaxialité des contraintes [88-91]. Cet effet est directement lié à l’augmentation de la vitesse de croissance des cavités, croissance qui s’effectue essentiellement suivant la direction de la sollicitation. Parallèlement à l'augmentation de la taille des cavités déjà créées, de nouvelles décohésions apparaissent à l’interface de nouvelles particules et de nouvelles ruptures apparaissent dans d'autres particules, voire dans les particules déjà endommagées. On a donc affaire à un phénomène de germination croissance continu. La présence des bandes de cisaillement révèle la nécessité de l’activation de mécanismes de déformation plastique pour la croissance de cavités. La
déformation 81 Identification du mécanisme d’endommagement et de l’aniso
e continue et les précipités ont tendance à s’orienter vers la direction la plus favorable pour la rupture. Figure 57
: Micrographies MEB obtenues
pendant l’essai de traction in-situ lors de la phase de croissance de cavités. III.1.2.3 Coalescence de cavités
La phase de croissance de cavités est active jusqu’au moment où les cavités commencent à interagir entre elles et la déformation plastique à se localiser dans les ligaments entre ces dernières. La Figure 58 met en évidence un mécanisme de coalescence des cavités qui, ensuite, mènera à la rupture des matériaux. Deux mécanismes de coalescence sont observés : la coalescence par cisaillement dans les ligaments entre les cavités (Figure 58a) et la coalescence par striction interne qui implique une croissance indépendante des cavités jusqu’à leurs contacts (Figure 58b). La transition entre la coalescence par cisaillement et la coalescence par striction interne est souvent observée dans les alliages d’aluminium quand le taux de triaxialité de contrainte, la capacité d’écrouissage [84] ou la vitesse de sollicitation [92] sont modifiés. Dans cette expérience de MEB in-situ, nous n’observons que la surface de l’éprouvette, 82 Identification du mécanisme d’endommagement et de l’anisotropie lieu où la triaxialité des contraintes est plus faible par rapport au centre de l’échantillon, ce qui favorise la coalescence par cisaillement dans les ligaments.
Figure 58 : Micrographies MEB obtenues pendant l’essai de traction in-situ. Deux mécanismes de coalescence des cavités sont mis en évidence : (a) coalescence par cisaillement dans les ligaments, (b) coalescence par striction interne.
III.1.2.4 Champs de déformation
Aux échelles d’observation obtenues au MEB, le champ de déformation est très hétérogène en raison de la microstructure [93]. La Figure 59 et la Figure 60 présentent les cartographies de déformation équivalente calculées par la corrélation d’images superposées aux microstructures initiales respectivement à l’endroit proche de l’entaille et au d’éprouvette. La déformation équivalente moyenne est proche de 5% ce qui correspond à la force maximale (532N) mesurée sur la courbe macroscopique forcedéplacement. 83 Identification du mécanisme d’endommagement et de l’anisotropie Figure 59
: Déformation équivalente locale obtenue par corrélation d’images superposée à la microstructure dans une zone proche de l’entaille de l’éprouvette. Figure 60 : Déformation équivalente locale obtenue par corrélation d’images superposée à la microstructure dans une zone au centre d’éprouvette. Quelques localisations de déformation apparaissent aux niveaux des précipités grossiers. Des bandes de localisation orientées à 45° par rapport au sens de sollicitation relient les précipités grossiers. L’analyse du champ de déformation locale confirme donc le mécanisme d’endommagement observé qualitativement.
Les précipités grossiers 84 Identification du mécanisme d’endommagement et de l’anisotropie sont des sites préférentiels d’endommagement. La rupture se produit par la croissance puis la coalescence des cavités. Cette coalescence entre les cavités initiées sur précipités se fait essentiellement par cisaillement quand ceux-ci sont éloignés.
III.1.3 Résultats quantitatifs de l’évolution de l’endommagement en surface
La Figure 61 présente l’évolution de la microstructure pour différents niveaux de déformation équivalente. Initialement, aucun endommagement n’est constaté sur les IMF mais la plupart des Mg2Si grossiers sont déjà endommagés. Des fissures sont constatées dans les IMF à partir d’une certaine valeur de déformation. Le nombre d’IMF fissurés et l’ouverture des fissures sont d’autant plus importants que la déformation équivalente est élevée. À une déformation équivalente de 23% (Figure 61d), en surface non seulement tous les précipités de Mg2Si grossiers sont endommagés, mais plusieurs précipités de Mg2Si grossiers au-dessous de la surface deviennent visibles. 85 Identification du mécanisme
’endommagement et de l’anisotropie
Figure 61 : Évolution de l’endommagement pour une éprouvette en configuration LS pour différents niveaux de déformation équivalente locale : (a) 0%, (b) 7%, (c) 13% et (d) 23%. L’évolution de l’endommagement peut être mesurée en termes de fraction de précipités endommagés exprimée en nombre ou en aire (Figure 62a et b). La fraction en nombre de précipités endommagés est définie comme le ratio entre la densité des précipités endommagés sur la densité de ce type de précipités [66]. Les résultats montrent une dépendance de la densité et de la fraction en nombre d’endommagement avec la déformation équivalente. Au cours de la déformation, le nombre de précipités endommagés augmente. La Figure 62b illustre l’évolution de la fraction surfacique
86 Identification du mécanisme d’endommagement et de l’anisotropie normalisée de précipités endommagés qui est définie comme le ratio entre la fraction surfacique de précipités endommagés sur la fraction surfacique de la totalité de précipités de ce type.
30% 80% Normalized Area Fraction (a) Number Fraction T=~0,5 20% 10% IMF-AM3-LS 0% 0% 10% eq (b) 60% T=~0,5 40% 20% IMF-AM3-LS 0% 20% 30% 0% 10% eq 20%
Figure 62 : Évolution de l’endommagement respectivement initié sur IMF pour une éprouvette de configuration LS en termes de : (a) fraction en nombre de précipités endommagés et (b) fraction surfacique normalisée de précipités endommagés. Le taux de triaxialité des contraintes est estimé à ~0,5.
| 9,310
|
2011STRA6060_5
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
Élaboration d’une méthodologie de reconstruction numérique d’accidents réels piéton
|
None
|
French
|
Spoken
| 7,552
| 11,458
|
La première méthode d’évaluation a été l’analyse modale multidirectionnelle des différents modèles de cou. Cette méthode a permis d’identifier les fréquences et déformées modales du cou dans le domaine fréquentiel et de les comparer au sujet humain in-vivo. Seul le modèle CASR à fait apparaître les quatre modes de flexion-extension, rétraction frontale, inclinaison et rétraction latérale. Les résultats obtenus pour chaque modèle de cou ont ainsi été comparés aux résultats obtenus selon la même méthode avec des volontaires humains lors de tests expérimentaux et avec le modèle éléments finis du cou développé à l’Université de Strasbourg. Le modèle CASR a montré les meilleurs résultats avec des fréquences modales les plus proches des fréquences humaines. La seconde méthode d’évaluation a été réalisée dans le domaine temporel avec des tests N.B.D.L. (Ewings 1968), tests d’accélérations frontales et latérales réalisés sur sujets volontaires humains. Les conditions de test ont été reproduites numériquement pour les différents modèles multicorps de cou. Lors de cette évaluation, c’est le modèle multicorps de cou Chalmers qui a montré les meilleurs résultats en termes de respect du corridor expérimental. Enfin, la dernière méthode nous a permis d’évaluer les cous à partir de la réponse de la tête sous deux configurations d’impact (corps entier et tête seule). Le modèle CASR a révélé la plus importante influence du cou selon les configurations. L’influence des conditions initiales de chargement de la tête la plus faible a été observée par le modèle TNO. Enfin, les conditions aux limites de la tête ont été étudiées en situation d’accident réel. Deux conditions limites différentes avec des chargements différents appliqués à la tête ont été considérées sur le modèle de piéton CASR sous simulation multicorps et sous méthode éléments finis. Les conditions d’impact de la tête ainsi définies sous Madymo ont été implémentées dans le modèle Eléments Finis de la Tête de l’Université de Strasbourg (SUFEHM) sous code Radioss. Cette dernière étude nous a permis d’étudier l’influence des conditions aux limites de la tête sur la réponse de celle-ci en cas de reconstruction cinématique d’un accident réel. Ce travail a montré que les conditions aux limites de la tête influencent de manière significative sur la réponse de la tête à l’impact en termes de champ d’accélération, de HIC et de paramètres EF et donc influent sur l’estimation de prédictions de lésion de la tête. 99
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton CHAPITRE 3. DEVELOPPEMENT D’UNE METHODE DE RECONSTRUCTION DE LA CINEMATIQUE DU PIETON
100
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton 1. Introduction
Dans le but de reconstruire des traumatismes crâniens avec un modèle éléments finis de tête, il est nécessaire d’obtenir les conditions initiales de la tête à l’impact, en termes d’orientation et de vitesse du centre de gravité de la tête par rapport à la surface impactante. Ces données sont obtenues après une reconstruction physique ou numérique de la cinématique de la victime entrainant un traumatisme crânien, tel que des accidents sportifs, automobiles, ou même des chutes. Dans le cadre de cette thèse, nous nous cantonnerons à l’accident impliquant un piéton et un véhicule, comme nous l’avons vu jusqu’ici. Afin de reconstruire un accident piéton le plus fidèlement possible, il existe différents moyens telle la reconstruction physique avec mannequin ou cadavre ou la reconstruction numérique. Les reconstructions physiques nécessitent un nombre important de moyens technique et financiers. La modélisation numérique reste un outil plus accessible. Comme nous l’avons vu en fin du premier chapitre, il existe deux approches numériques, la modélisation par éléments fins ou la modélisation multicorps. Cette deuxième modélisation est de nos jours très utilisée pour les reconstructions d’accidents piéton. L’avantage du multicorps est d’obtenir une cinématique réaliste du piéton avec un gain de temps important par rapport à la modélisation éléments finis, notamment à travers l’étude paramétrique du problème. L’objectif de ce troisième et dernier chapitre est de développer une méthode de reconstruction automatisée de la cinématique du piéton par la modélisation multicorps. Cette méthode est basée sur un outil automatique nommé BioPed comprenant une partie de prétraitement et une partie d’analyse de résultats dans un module de post-traitement. Le module de prétraitement permet d’analyser les différentes données sur les circonstances de l’accident concernant le scénario, le piéton, le véhicule, et permet ainsi la mise en place des différents modèles correspondants. Le modèle multicorps de piéton utilisé dans BioPed est le modèle TNO, modèle multicorps le plus complet en termes de critères biomécaniques. De plus ce modèle humain est disponible sous MADYMO® avec un module de redimensionnement selon les dimensions et masses des victimes des accidents reconstruits. Une fois l’outil BioPed présenté, une application sera réalisée sur une base de données de 8 accidents réels piéton/véhicule provenant d’un centre de recherche sur la sécurité automobile d’Australie. Cette méthodologie de reconstruction sera enfin évaluée en regard des données de l’accident réel et en regard d’une autre méthodologie de reconstruction utilisée par le centre de recherche australien. 2. Outil de reconstruction d’accidents BioPed 2.1 Introduction
Plusieurs paramètres nécessaires à la simulation, tels que la position du piéton avant impact, les propriétés de la structure impactante, la localisation de l’impact etc., restent des paramètres influents sur la cinématique du piéton. Dans ce chapitre, la méthode choisie pour la reconstruction de la cinématique est de simuler un grand nombre de scénarios possibles en lançant une étude paramétrique automatisée. La préparation et le lancement de ces simulations se font ici de manière automatique par un programme qui va générer les différents scénarios en faisant varier les paramètres choisis. Le scénario le plus probable est alors obtenu par post-traitement des simulations en comparant les données directement observées sur le site de l’accident telles que les localisations des différentes zones impactées et l’ordre dans lequel ces impacts se sont déroulés. Dans un premier temps, nous présenterons les différentes méthodes d’analyse paramétrique et plus particulièrement celle qui nous paraitra la plus pertinente à utiliser pour obtenir le scénario le plus
101
Chapitre
3. D
éveloppement
d’une mé
thode
de
reconstruction de la cinématique du piéton probable en un minimum de simulations. Ensuite, nous exposerons l’outil de pré et post-traitement qui permettra de positionner le modèle humain en situation initiale d’accident et de contrôler les paramètres à varier pour évaluer leur influence ainsi que d’analyser l’ensemble des simulations réalisées pour extraire les influences des différents facteurs et déterminer la combinaison optimale. 2.2 Plans d’expérience
Il est nécessaire, pour obtenir une simulation valide, de connaître le maximum de paramètres liés aux conditions initiales de l’accident ainsi que ceux observées sur le site de l’accident. Un grand nombre de ces paramètres reste souvent mal contrôlé. La méthode consiste donc à faire varier ces facteurs jusqu’à obtenir le scénario de l’accident le plus probable. La manière la plus simple pour faire varier les paramètres est de suivre un plan d’expérience. Ce plan d’expérience, en plus de déterminer le niveau optimal des paramètres pour le scénario le plus probable, est également un outil capable de déterminer les paramètres les plus influents et les plus robustes. Le choix des paramètres à faire varier et leurs niveaux fixent les limites de l’analyse paramétrique et déterminent le « domaine expérimental ». Il existe au moins quatre méthodes permettant d’explorer ce « domaine expérimental » : • « Construire-essayer-modifier » • « Un seul paramètre à la fois » • Plan factoriel complet • Plan fractionnaire orthogonal La méthode « Construire-essayer-modifier » est une méthode économiquement inefficace qui conduit à des temps de développement longs et à une mauvaise reproductibilité. Elle est très dépendante de la compétence de la personne qui va réaliser les simulations. Cette méthode est complètement inadéquate pour deux raisons : • Il est impossible de savoir si l’on aboutit à un véritable optimum, puisque le cycle est achevé dès qu’un scénario probable est obtenu. • Cette méthode est par nature lente puisqu’elle nécessite de la chance et une bonne intuition. Elle conduit à recommencer sans cesse une nouvelle simulation. La méthode « un seul facteur à la fois » est la méthode traditionnellement utilisée par les scientifiques et les ingénieurs dans les universités et les industries. Elle consiste à étudier un paramètre de manière minutieuse sous conditions fixées. Une fois ses effets caractérisés, un autre paramètre est alors étudié et ainsi de suite pour l’ensemble des paramètres. Cette méthode permet d’obtenir des solutions optimales et une compréhension scientifique des effets de chaque paramètre, contrairement à la méthode précédente. En revanche, elle reste une méthode lente et ne corrige pas tous les défauts de la méthode « Construire-essayer-modifier ». En effet, elle ne donne pas d’information sur la façon dont l’effet d’un facteur est modifié lorsque les autres facteurs changent. Elle ne prend donc pas en compte la notion d’interaction entre les facteurs. Par ailleurs, un autre problème inhérent à cette méthode, est que les paramètres ne sont pas testés le même nombre de fois suivant leur niveau. La méthode factorielle complète est la méthode la plus complète puisqu’elle explore toutes les combinaisons possibles des niveaux des facteurs. Le nombre total de combinaisons pour x facteurs à y niveaux est de y x. La probabilité de trouver le résultat le plus favorable est maximum. La grande faiblesse de cette méthode réside dans le fait qu’elle conduit à un nombre excessif de simulations.
102
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Ainsi par exemple, une étude avec 13 paramètres à 3 niveaux comportera 1 594 323 combinaisons. D’où l’utilité des techniques d’inférence statistique qui devraient permettre de trouver le niveau optimum des facteurs en examinant leur effet moyen sur la réponse sans avoir à essayer toutes les combinaisons. Les tables orthogonales permettent de n’utiliser qu’une fraction de l’ensemble des combinaisons du plan factoriel complet. Les combinaisons sont choisies afin de fournir une information suffisante pour déterminer l’effet des facteurs à l’aide de l’analyse des moyennes. La méthode statistique la plus largement utilisée et la plus complète de nos jours est la méthode Taguchi (Goupy 2001). Cette méthode utilise des tables orthogonales standards et équilibrées, c’est à dire que dans les combinaisons retenues, tous les niveaux ont le même poids. En fait, l’orthogonalité implique que l’effet de chaque facteur peut être évalué mathématiquement indépendamment des effets des autres facteurs. Ainsi quand une table complète donne 128 combinaisons pour une analyse paramétrique de 7 facteurs à 2 niveaux, la table orthogonale n’en sélectionnera que 8. Le plan orthogonal présente donc la manière la plus efficace pour mener un plan d’expériences ou une analyse paramétrique. C’est pourquoi dans la suite de cette étude nous nous focaliserons sur les tables orthogonales. Comme pour les plans factoriels complets et fractionnaires, il est nécessaire de définir un modèle associé au plan d’expérience de l’analyse paramétrique. Ainsi, après avoir choisi les facteurs que l’on considère comme ayant une influence sur la réponse de l’expérience, soit dans notre cas, une influence sur la cinématique de la victime considérée, nous devons proposer un modèle correspondant à l’hypothèse qui nous semble la plus probable. Le modèle est en général une combinaison linéaire de la variable réponse en fonction des facteurs et des interactions que l’on suppose avoir un effet sur la réponse cinématique. Les coefficients du modèle sont obtenus après la simulation de l’ensemble des combinaisons du plan. Voici un exemple de modèle décrit en équation eq. 5 qui met en évidence l’effet Y des facteurs F1, F2, F3 et F4 ainsi que les interactions F1F3 et F2F4, l étant le terme constant: Y =
l + F1 + F2 + F3 + F4 + F1 F3 + F2 F4
Eq
. 5 Si ni est le nombre de niveaux du facteur Fi et nj celui du facteur Fj le degré de liberté (ddl) du facteur Fi est égal à ni-1 et le ddl de l’interaction FiFj est égal au produit (ni-1)(nj-1). Le degré de liberté du modèle (ddlM) est égal à la somme des ddl des éléments le constituant. Une table, ou matrice, orthogonale est une table fractionnaire avec des propriétés particulières. On dit que deux facteurs sont orthogonaux dans une table d’expérience si tous les couples de niveaux de ces facteurs existent et sont en nombre identiques, ce nombre est appelé constante d’orthogonalité des facteurs. Si les facteurs Fi et Fj sont orthogonaux dans une table, alors le nombre de combinaisons T (nombre de ligne de la table) doit vérifier les conditions de l’équation eq. 6 : T=kPPCM(ninj, i≠j ), k entier≥1 T≥ddlM Avec Eq. 6 ni nombre de niveaux du facteur Fi, nombre de niveaux du facteur Fj, nj PPCM Plus Petit Commun Multiple 103
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Dans le paragraphe précédent, nous avons écrit de manière symbolique un exemple de modèle, sans coefficients, pour décrire l’influence des facteurs ou paramètres étudiés. Dans cette section nous allons décrire comment calculer l’effet des paramètres sur la variable réponse c’est-à-dire les coefficients du modèle. Soit une étude comportant deux facteurs F1 et F2 comportant respectivement 2 et 3 niveaux. Supposons l’interaction F1F2 négligeable. Soit le modèle utilisé, décrit en équation eq. 7 et définissant la variable réponse Y: Y = l + F1 + F2
Eq. 7
Après avoir réalisé les essais selon une table de Taguchi, le modèle peut s’écrire suivant l’équation eq. 8 avec les coefficients calculés à partir des résultats des essais: Y = l + [a1,a2 ] F1 +
[b1,b2,b3 ] F2
Eq. 8
Le coefficient ai ou bi d’un facteur à un niveau est égal à la différence entre la moyenne des réponses quand le facteur est fixé à ce niveau et la moyenne totale l. La robustesse de chaque niveau de facteur est également calculée en définissant un rapport entre signal et bruit (S/N). Plus ce rapport S/N est grand, plus le niveau du facteur est robuste Ainsi, si l’on désire minimiser la variable réponse Y, on sélectionne le niveau des paramètres qui minimise le modèle tout en étant robuste. L’analyse de la variance par la technique ANAVAR, permet de déterminer si le facteur est significatif ou non. Cet outil statistique consiste à expliquer la variance totale de l’ensemble du plan d’expérience en fonction de la variance due aux facteurs et de la variance résiduelle non expliquée par le modèle. La première étape consiste à calculer la somme des carrés des écarts (SCE ou Sum Square SS) pour tous les résultats obtenus pour chaque facteur et pour l’ensemble du plan d’expérience. On calcule ensuite la variance pour chaque facteur en pondérant le SS par leur degré de liberté (dof) respectifs. Le degré de liberté d’un facteur correspond au nombre de niveau associé moins 1. On définit ainsi un rapport entre la variance de chaque facteur et la variance résiduelle (équation 9.). Ce facteur est noté Ftest. La variance résiduelle correspond à la variance du plan d’expérience moins la somme des variances des facteurs. Les résultats de l’analyse de la variance ANAVAR sont résumés sous forme de table représentée en tableau 18. Tableau 18.
Table d’ANAVAR. 104
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Afin de vérifier si un facteur est significatif, le rapport Ftest pour chaque facteur doit suivre la loi de Fisher Fα et doit donc vérifier l’hypothèse suivante : Ftest = SS f dof f
SS
res dof res ≥ Fα (dof f, dof m ) avec dof m = ∑ dof f Eq. 9 A partir des résultats de la table d’ANAVAR, il est également possible de définir l’influence des facteurs sur la variable réponse Y. L’influence est définie par le rapport en pourcent entre la somme des carrés des écarts du facteur (SSFi) et la somme des carrés des écarts du modèle (ΣSSFi). 2.3 Module de prétraitement
Une des difficultés des reconstructions cinématiques du piéton en situation d’accident à l’aide de simulations multicorps, est de préparer un ensemble de simulations qui va permettre d’évaluer les effets de différents facteurs ou paramètres tels que la posture avant impact, la vitesse du véhicule, les coefficients de frottement etc. Il s’avère alors nécessaire de faire appel à un outil capable de procéder à la mise en place de ces modèles et d’aider à traiter l’ensemble des résultats des simulations obtenues. Dans un premier temps nous ferons une description du module permettant la mise en place des simulations, puis nous exposerons le traitement effectué pour le post-traitement et l’analyse des simulations.
Mise à l’échelle du modèle humain Traitement des paramètres Sélection de la table d’expériences Mise en place de la posture Sélection des paramètres Insertion des modèles environnementaux Lancement du modèle couplé Adaptation des modèles
Figure 94. Organigramme de fonctionnement du module de prétraitement. 105
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Le module de prétraitement peut se diviser en deux parties, comme représenté dans le même organigramme illustré en figure 94 : • Une partie Adaptation des modèles qui consiste à adapter le modèle humain en situation initiale d’accident. • Une deuxième partie – Traitement des paramètres permettant la sélection et la modification des paramètres étudiés. Le module de mise à l’échelle est un module de Madymo® utilisant les données GEBOD (GEnerator of BOdy Data) en indiquant le genre, la taille et la masse du modèle humain à simuler. En revanche le module de mise en place de la posture est développé sous le langage Python. Il permet d’orienter les membres supérieurs et inférieurs correspondant à la posture de marche choisie. Pour cela une base de données d’orientations des différentes liaisons pour chaque posture (figure 95) a été implémentée. La position du modèle est alors calculée pour chaque posture et est dépendante de la taille du modèle. Il est nécessaire d’extraire la longueur des membres inférieurs et calculer leur projection sur l’axe vertical comme illustré en figure 96.
Zposition Figure 95. Présentation des différentes postures de piéton. Figure 96. Calcul de la position du modèle par rapport au sol. 106
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
L’insertion des modèles environnementaux (piéton, véhicule,...) se fait également par une routine en langage Python qui va inclure, dans le fichier principal contenant le modèle humain et l’espace de référence (ReferenceSpace),, les modèles sous forme d’inclusion, comme illustré en figure 97. On peut ainsi modifier l’orientation et la position de l’inclusion l’ indépendamment du modèle principal. Cette routine va également détecter toutes les surfaces de l’inclusion l’ et créer tous les contacts entre le modèle humain et celui du modèle environnemental, envir après avoir indiqué les conditions initiales en termes de vitesse et de distance de freinage ou même de déplacement dans le cas où l’on désire imposer un déplacement ement du véhicule.
Figure 97.. Représentation des éléments créés dans le fichier principal du modèle sous XMagic®. XMagic
L’interface qui permet de générer le modèle couplé est représentée en figure 98. Nous pouvons sélectionner le genre, la taille et la masse du modèle humain ainsi que sa posture. Le bouton « Include File » nous permet d’insérer le modèle environnemental (une voiture par exemple) et de modifier les propriétés des surfaces de contact, puis les conditions initiales avant choc. Nous avons toujours la possibilité de visualiser le modèle sous XMagic®. Puis une fois fois le modèle vérifié, le bouton « Add to List » met en queue la simulation à exécuter.
107 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 98. Représentation de l’interface permettant la génération du modèle couplé.
En ce qui concerne la deuxième partie du module de prétraitement, il va nous permettre de sélectionner une table d’expérience prédéfinie (par exemple une table de Taguchi) et de choisir les paramètres à faire varier ainsi que les valeurs des niveaux afin d’étudier leur influence sur le comportement de la cinématique du piéton (figure 99). L’ensemble des combinaisons est résumé dans la fenêtre des listes des tâches et est prêt à être exécuté (figure 100).
Figure 99. Représentation d’une table d’expérience sélectionnée et des facteurs à étudier.
108 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 100. Représentation de la liste des simulations à exécuter.
2.4 Module de post-traitement
Le module de post-traitement consiste à analyser les différentes simulations définies par la liste des tâches. Ce module peut se diviser en deux procédés : • Une analyse d’une seule simulation à la fois, • Une analyse d’un ensemble de simulations définies par la table d’expérience. Pour étudier une simulation particulière, on charge le fichier texte qui résume toutes les informations concernant l’évolution de la simulation et le nom des fichiers Madymo® dans l’interface de résultat (figure 101). Le bouton « Calcul » permet d’extraire la ou les surfaces qui ont été en contact avec la tête. Une fois la surface sélectionnée, le module calcule la localisation du point de contact sur la tête et extrait la vitesse avant impact. Tous les contacts sont également résumés en ordre d’apparition. Le bouton « Visual » permet de visualiser le vecteur vitesse de la surface impactée sur la tête, comme illustré en figure 102. Le module calcule également la distance entre une partie du corps, sélectionnée préalablement (par exemple la tête), et un point virtuel dont on connaît parfaitement les coordonnées (par exemple une zone du pare brise).
109 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 101. Représentation de l’interface de calcul pour une simulation seule. Figure 102. Représentation du vecteur vitesse de la surface impactée du véhicule sur la tête (en rouge: la résultante, en vert: la composante tangentielle, et en bleu: la composante normale).
En ce qui concerne l’analyse d’un ensemble de simulations établies selon une table d’expérience, le fichier texte contenant les informations sur l’évolution des simulations, contient également le nom de chaque simulation effectuée et la table d’expérience associée. Il apparaît alors une fenêtre comportant les résultats des simulations, comme illustrée en figure 103. On peut visualiser, pour chaque variable réponse, les effets des paramètres étudiés ainsi que leur robustesse.
110 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 103. Représentation de la fenêtre de résultats d’un ensemble de simulation. 3. Application de BioPed 3.1 Introduction
La méthode de reconstruction automatisée de la cinématique par l’outil BioPed présenté dans le paragraphe précédent est ici appliquée sur une base de données de 8 accidents, déjà présentés en chapitre 2. Ces 8 cas considérés pour cette étude proviennent d’une série de 77 collisions de piétons examinées sur site par le CASR (Centre for Automotive Safety Research) dans la zone métropolitaine d’Adélaïde – Australie du Sud. Les données collectées sur le site de l’accident incluent les traces évidentes (traces de freinage du véhicule, localisations du point d’impact et position finale du piéton, débris et autres marques), le descriptif des lésions et/ou l’autopsie provenant des données de l’hôpital, les dimensions du piéton et autres interviews. Toutes ces données ont été approuvées par le comité d’éthique humaine de l’université australienne. Le véhicule mis en cause dans l’accident a été inspecté et toute trace de contact avec le piéton a été relevé et mesuré. Les caractéristiques principales des 8 cas retenus pour cette étude sont reprises dans le tableau 19. 111
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Case Pedestrian age and sexe Head injuries Maximum AIS (Head injuries) Make, model, year of vehicle P030 75 male Head laceration and subdural hematoma P031 24 male Subarachnoid haemorrhage, concussion and facial fractures 3 1981 Holden Commodore sedan P032 47 male Laceration to scalp 1 1986 Mitsubishi Colt hatchback P034 17 female Multiple serious head injuries, including SDH, DAI 5 1995 Ford Festiva P036 28 male. Superficial head injuries 1 1986 Ford Laser P037 60-70 female Laceration to head, LOC* (5 min) 2 1991 Ford Festiva P038 80 female Minor laceration 1 1990 Honda Integra P039 13 female Fatal head injuries 5 2001 Mazda Tribute 1, (4 (SDH) after 2 1987 Ford Falcon sedan month delay)
Table
au
19. Détails des cas d’accident piéton. *LOC: Perte de conscience
Les différentes lésions du piéton sont classées et codées à l’aide de l’AIS (Abbreviate Injury Scale). Cette classification a été créée en 1976 puis a évolué jusqu’en 1990. L’AIS a été développé pour fournir une méthode numérique simple afin de hiérarchiser et comparer les blessures par degré de sévérité. Dans l’AIS90, chaque lésion décrite est affectée d’un code numérique à 6 caractères en complément de la valeur AIS de la gravité de la lésion, comme on peut le voir schématisé en figure 104: Le premier caractère identifie la région corporelle [R], Le second caractérise le type de structure anatomique [T], Les 3èmes et 4èmes caractères identifient [S] : o La structure anatomique spécifique, ou, dans le cas de lésions externes, o La nature particulière de la blessure Les 5ème et 6ème caractères identifient le type d’atteinte lésionnelle au sein d’une même région corporelle et d’une même structure anatomique [N]. Enfin, le dernier caractère, en gras donne le score AIS proprement dit, score associé au degré de sévérité de la lésion sur une échelle de 0 : aucune lésion à 6 : sévérité maximale (lésion fatale). Exemple : Un code AIS 1 4 06 02.3 décrit une lésion à la tête (R=1), lésion d’un organe interne (T=4), correspondant au cerveau (S=06). Le type d’atteinte lésionnelle est une contusion (N=02). Cette lésion est attribuée ’un AIS 3, lésion sérieuse. Pour la suite de ce paragraphe, un cas d’accident sera exposé en totalité, puis une description plus succincte des sept autres cas d’accidents et leur reconstruction sera présentée. Pour chacun des cas, les circonstances de l’accident ainsi que les données sur la victime et sur le véhicule mis en cause seront décrites. La mise en place du prétraitement ainsi que les résultats en post-traitement seront donnés pour chacun des cas. Une évaluation de la reconstruction en regard de l’accident réel et en regard d’une autre méthode de reconstruction du CASR nous permettra d’apprécier la méthode de reconstruction BioPed développée dans ce chapitre.
112 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 104. Codage AIS (AIS90) 3.2 Cas P034
3.2.1. Description de l’accident
P034 Lieu de l’accident Mois de la collision : Novembre Heure de la collision : 21:15, nuit, rue éclairée Description : Une femme alcoolisée de 17 ans marchait direction nord-sud sur une route à 6 voies. Une fois le terre-plein central traversé sur un passage piéton, la jeune femme a continué sa route vers le sud et a été percutée par un véhicule se déplaçant d’est en ouest. Elle a été projetée à environ 20m plein ouest à partir du point d’impact (figure 105). La collision s’est produite de nuit (figure 106). Type de route : Conditions de route : Conditions météo : axe principal bonne bonne Limitation de vitesse : Type de surface : 60 km/h bitume
113 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 105. Schéma du site de l’accident pour le cas P034. Figure 106. Vue du site de l’accident depuis le conducteur. Une personne indique la position du piéton lors de l’impact. Le piéton
Le piéton est une jeune femme de 17 ans, mesurant 1.55m et pesant 44kg. Lésions : Les blessures sont reportées en figure 107 et dans le tableau 20. Le piéton a présenté des lésions sévères à la tête, incluant des hématomes cérébraux bilatéraux, un hématome sous-dural droit, une lésion axonale diffuse, une paralysie du 3ème nerf crânien gauche, une pression intracrânienne prolongée et une hémiparésie gauche. Le piéton a de même présenté une lacération du cuir chevelu du 114
Chap
itre
3. Développement
d’
une méthode
de re
construction de la cinématique du piéton côté gauche, des lacérations au niveau de l’occiput, et des contusions à la cheville droite et le long de la jambe gauche. La victime
a eu une fracture
étendue du pelvis et une fracture du tibia gauche. Posture à l’impact : Le piéton marchait dans la direction sud à travers la route et avait son côté gauche en face du véhicule approchant.
Figure 107. Localisations des lésions du piéton cas P034.
Le véhicule
Véhicule : Vitesse de déplacement : Vitesse d’impact : Tableau 20. Description des lésions du piéton cas P034. 1995 Ford Festiva Trio – 3 portes 60 km/h (selon le conducteur) 60 km/h (selon le conducteur)
Les dommages causés au véhicule sont présentés en figure 108 et reportés sous forme de schéma en figure 109 et décrits dans le tableau 21.
Figure 108. Dommages causés au véhicule, cas P034.
115 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 109. Schéma des localisations des dommages causés au véhicule, cas P034. 3.2.2. Tableau 21. Description des dommages causés au véhicule, cas P034. Prétraitement du cas P034
Considérons le cas P034 qu’il s’agit de reconstruire afin de déterminer la cinématique et plus précisément la localisation et la vitesse de la tête à l’impact. Rappelons ici la description de l’accident: Un piéton traverse une chaussée en marchant lorsqu’un véhicule arrive sur son côté gauche à une vitesse d’environ 60 km/h. le véhicule percute le piéton latéralement, ce dernier s’allonge sur le capot et vient impacter la tête sur la base du pare-brise. La voiture s’arrête 18 m plus loin et le piéton est projeté vers l’avant gauche du véhicule à une distance de 19 m du lieu de l’impact. Le piéton mesure 1.55m pour une masse de 44 kg. Nous avons recueilli comme données de l’accident une vitesse approximative du véhicule, environ 60 km/h, un sens de déplacement du piéton avec une vitesse de marche approximative de 4 km/h et un point d’impact sur le pare-brise. En revanche, nous ne connaissons pas exactement la posture du piéton à l’impact. Nous pouvons donc représenter notre étude paramétrique à l’aide d’un diagramme des paramètres comme illustré en figure 110. Les paramètres d’entrée sont au nombre de cinq et sont représentés en figure 111 et définis comme suit : La vitesse du véhicule, notée INCLUDE-VEL, La vitesse du piéton, notée LIN-VEL, La position du piéton par rapport au véhicule, notée LIN-POS, L’orientation angulaire du piéton, notée ANG-POS, La posture du piéton, notée GAIT. Le paramètre de sortie du diagramme est la localisation du point d’impact de la tête sur le pare-brise, localisation représentée en figure 111. 116 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton vitesse du piéton LIN-VEL
Vitesse du véhicule INCLUDE-VEL Modèle Madymo® Distance Tête-point d’impact Position du piéton LIN-POS Orientation du piéton ANG
-
POS Posture
du
piéton GAIT
Figure 110. Représentation du diagramme définissant les paramètres supposés influents et la réponse mesurée. Figure 111. Paramètres d’entrée pour les reconstructions de la cinématique sous BioPed.
L
’é
tape
suivant
e consiste à choisir la table d’expérience correspondant au modèle d’optimisation de la simulation représenté ci-dessous (équation eq. 10) : Ydist = ldist + GAIT + LIN-POS + ANG-POS + LIN-VEL + INCLUDE-VEL Eq. 10 Le plan d’expérience qui en découle est la table de Taguchi L50(54101) avec 1 facteur à 10 niveaux et 4 facteurs à 5 niveaux. Les niveaux des facteurs à faire varier sont définis comme suit : 1er facteur : GAIT, posture du piéton à l’impact, facteur à 10 niveaux ayant pour valeurs 0% à 90% selon les positions définies en figure 95. 2ème facteur : LIN-POS, la position du piéton à 5 niveaux. Les valeurs des niveaux de ce paramètre ont été définies à partir des dommages causés au véhicule. Pour le cas P034, les valeurs des niveaux sont : 0.2 ; 0.25 ; 0.3 ; 0.35 et 0.4 m. 3ème facteur : ANG-POS, l’orientation du piéton. Les valeurs des cinq niveaux sont définies autour de la direction connue du piéton. Les valeurs des niveaux sont : -0.5 ; -0.25 ; 0 ; 0.25 et 0.5 rad.
117 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton - 4ème facteur : LIN-VEL, la vitesse du piéton
Les valeurs des cinq niveaux de ce facteur sont : 0.8 ; 0.9 ; 1 ; 1.1 et 1.2 m/s. 5ème facteur : INCLUDE-VEL, la vitesse du véhicule. Les valeurs des niveaux sont définies autour de la vitesse connue de 60 km/h et sont : 15 ; 15.5 ; 16 ; 16.5 et 17 m/s. Le plan d’expérience ainsi défini est représenté dans le tableau 22. Cela correspond à 50 simulations pour l’accident considéré.
Tableau 22. Plan d’expérience selon la table de Taguchi L50 (1 facteur à 10 niveaux, 4 facteurs à 5 niveaux) pour la simulation du cas P034.
118
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton 3.2.3. Post-traitement du cas P034
Les résultats du plan d’expérience sont observés en termes de vitesse et d’orientation de la tête à l’impact, d’écart de position du point d’impact de la tête et de la zone impactée et en termes d’effets des niveaux des différents facteurs sur ce paramètre d’écart de position du point d’impact. Une analyse de la variance va nous permettre d’étudier la fiabilité des paramètres d’entrée. Les résultats de la configuration retenue seront également présentés. Le tableau 23 présente les résultats du plan d’expérience du cas P034 en termes de vitesses moyennes de la tête à l’impact en composante normale et tangentielle ainsi que les écart-types obtenues pour les 50 simulations. On trouve une vitesse résultante moyenne de la tête à l’impact de 12.31 ±2.11 m/s avec une vitesse minimale de 7.86 m/s et une vitesse maximale de 17.61 m/s. La vitesse a principalement une composante normale.
Tableau 23. Moyenne et écart-type des vitesses d’impact de la tête pour le cas P034. La figure 112 représente la distribution de la localisation de l’impact de la tête en termes de latitude (bandes horizontales rouges) et longitude (bandes verticales bleues) parmi les simulations du plan d’expérience du cas P034. Cette distribution ne prend pas en compte le côté d’impact de la tête (droite ou gauche). Ainsi, on observe que 32 % des simulations conduisent à un impact de la tête en latitude 3. Par contre en termes de longitudes, aucune zone n’est principalement touchée, la distribution des localisations d’impact est quasi-équilibrée.
Latitude Longitude Figure 112. Répartition des latitudes et longitudes de l’impact tête pour le cas P034. La moyenne des résultats en termes d’écart de position du point d’impact de la tête et de la zone impactée est de 0.10 m avec une distance minimale de 0.015 m et maximale de 0.23 m. Les effets des
119 Chapitre
3.
D
éveloppement
d’
une méthode de reconstruction de la cinématique du piéton
différents paramètres
sur l’écart de position du point d’impact sont tracés sur les graphiques
de
la figure 113
. La figure 113 reporte également la robustesse des paramètres en termes de rapport signal/bruit en décibel. Plus ce rapport est élevé, plus le paramètre est robuste. Le choix des niveaux des paramètres minimisant l’écart de position d’impact est donc à définir en fonction de l’effet de ce niveau et en fonction de sa robustesse. 12 GAIT 0,08 0,06 10 9 S/N [dB] 0,04 EFFECT GAIT 11 0,02 0,00 8 7 6 -0,02 5 -0,04 10 GAIT 90 GAIT 80 GAIT 70 GAIT 60 GAIT 50 GAIT 40 GAIT 30 GAIT 20 GAIT 0 INCLUDE-VEL GAIT 10 GAIT 90 GAIT 80 GAIT 70 GAIT 60 GAIT 50 GAIT 40 GAIT 30 GAIT 20 GAIT 0 0,03 GAIT 10 4 INCLUDE-VEL 0,02 9 8 S/N [dB] EFFECT 0,01 0,00 -0,01 7 6 5 -0,02 4 -0,03 3 15 15,5 16 16,5 17 15 15,5 16 16,5 17 0,35-0,1 0,4-0,1 1 1,1 1,2 0 0,25 0,5 0,04 10 LIN-POS LIN-POS 0,03 9 8 S/N [dB] EFFECT 0,02 0,01 0,00 7 6 5 -0,01 4 -0,02 3 0,2-0,1 0,25-0,1 0,3-,01 0,020 0,35-0,1 0,4-0,1 0,2-0,1 0,25-0,1 0,3-,01 LIN-VEL LIN-VEL 7 0,015 6 0,005 S/N [dB] EFFECT 0,010 0,000 -0,005 5 4 -0,010 -0,015 3 -0,020 0,8 0,020 0,9 1 1,1 1,2 0,8 ANG-POS 9 0,9 ANG-POS 0,015 8 S/N [dB] EFFECT 0,010 0,005 0,000 7 6 5 4 -0,005 3 -0,010 -0,5 -0,25 0 0,25 0,5 -0,5
-0,25
Figure 113. Effets (en m) et robustesse (S/N) des paramètres calculés sur l’écart de position du point d’impact de la tête.
120
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
La table d’ANAVAR de l’analyse des variances pour le plan d’expérience du cas P034 est présentée dans le tableau 24. On détermine les valeurs suivantes sur la table de la loi de Fisher : F0.90(9,25) = 1.89 et F0.90(4,25) = 2.18 avec un indice de confiance α de 90%. On en conclue donc que les seuls facteurs significatifs sont la posture du piéton (GAIT), la position linéaire du piéton (LIN-POS) et la vitesse du véhicule (INCLUDE-VEL) avec des facteurs Ftest supérieurs au facteur de Fisher. Les paramètres LIN-VEL et ANG-POS ne sont donc pas fiables quant aux résultats de l’étude statistique du plan d’expérience sur le calcul des effets.
Tableau 24. Table d’ANAVAR pour le cas P034
. L
’
influence
des
paramètres sur l’écart de position du point d’impact a également
été calculée
. La posture du piéton se trouve comme étant le paramètre le plus influent à hauteur de 51%. La vitesse du véhicule et la position du piéton influent sur la localisation du point d’impact de la tête à hauteur de 22.5% et 16% respectivement. La vitesse et l’orientation du piéton n’influent que faiblement sur la localisation de l’impact tête avec des valeurs respectives de 7.4% et 3.2%. D’après le modèle d’optimisation (figure 113), la combinaison des paramètres qui minimisent cet écart de position d’impact est : GAIT
: 70% Vitesse du véhicule (INCLUDE-VEL) : 16 m/s Position du piéton (LIN-POS) : 0.3 m Vitesse du piéton (LIN-VEL) : 1.1 m/s Orientation du piéton (ANG-POS) : 0 rad
Au stade actuel de développement du programme BioPed, il n’est possible de calculer qu’un seul paramètre de sortie qui est l’écart de position du point d’impact de la tête. D’autres paramètres sont toutefois nécessaires pour le choix de la simulation optimisée, tels que la distance de projection ou l’orientation réelle de la tête à l’impact en fonction des lésions. De plus, les résultats des simulations ne prennent pas en compte les critères biomécaniques du modèle piéton TNO afin de valider les possibles fractures ou autres lésions du piéton lors du choc. Une visualisation de la cinématique reste nécessaire afin de valider la simulation vis-à-vis des lésions réelles observées.
121
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
De ce fait, le choix de la simulation optimisée s’est porté parmi un panel de simulations et non seulement en fonction du modèle d’optimisation. Parmi les 50 simulations du plan d’expérience de Taguchi, celles aboutissant à un impact de la tête dans une zone d’impact élargie (zone de 5 cm autour du point d’impact) ont été retenues et visualisées. Ainsi pour le cas P034, 9 simulations ont été retenues. La cinématique de la simulation présentant le plus petit écart de position d’impact ainsi qu’une orientation correcte de la tête à l’impact vis-à-vis des lésions et une distance de projection proche de la distance réelle a déterminé les paramètres d’entrée optimums de
simulation
finale. Le tableau 25 décrit la configuration obtenue pour la simulation donnant les résultats les plus proches des données réelles. Le piéton est dans une posture de 70% à l’impact, c’est-à-dire qu’il est en appui sur sa jambe gauche tendue, jambe droite fléchie en arrière. Le piéton a une vitesse initiale de 1 m/s, vitesse de marche. Le véhicule vient impacter le piéton à une vitesse de 17 m/s soit 61 km/h. La cinématique du piéton est représentée en figure 114. La jambe gauche en appui tendue est impactée en premier par le véhicule. Celle-ci a présenté une fracture selon les données lésionnelles du piéton. On observe par la suite une cinématique du bras gauche correspondant aux dommages relevés sur le véhicule en figure 109, notamment au niveau du capot avec des enfoncements à WAD comparable. L’impact de la tête se fait essentiellement en zone occipitale ce qui correspond aux lésions observées à la tête (figure 107 et tableau 20). Le tableau 26 résume les résultats obtenus en termes de vitesse et d’orientation de la tête à l’impact et de distance de projection du piéton pour la reconstruction de ce cas. Les résultats obtenus au niveau de la tête en termes de vecteurs vitesse sont représentés en figure 115. On retrouve l’impact occipital de la tête dans une direction normale au pare-brise. Cette simulation montre un écart de position de l’impact de la tête au point d’impact sur le pare-brise de 0.03 m. Le piéton est projeté à une distance de 22 m contre une distance de 19 m dans la réalité.
Tableau 25. Configuration de la simulation pour la reconstruction de la cinématique
du
cas P034.
122
Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 114. Cinématique la plus probable du piéton, cas P034. Tableau 26.
Ré
sultats
de la reconstruction de la cinématique du cas P034. Figure 115. Vecteur vitesse et localisation de l’impact de la tête, cas P034, flèche bleue : vitesse normale, flèche rouge : vitesse résultante.
123 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton 3.2.4. Evaluation et validation de la reconstruction du cas P034
Le but de ce paragraphe est d’évaluer la reconstruction de la cinématique du cas P034 en regard des données et informations du cas d’accident réel, mais aussi en regard de la reconstruction réalisée par le CASR. Les figure 116 et figure 117 représentent la position initiale et la cinématique du piéton après reconstruction réalisée par les deux méthodes de reconstruction, par le CASR et par BioPed pour le cas P034. Les deux piétons présentent la même position initiale par rapport au véhicule. En revanche, l’orientation du corps ett la posture diffèrent. Le véhicule vient impacter le modèle CASR sur son flanc gauche. Dans le cas de la reconstruction BioPed, le modèle TNO présente une orientation de 30 degrés comme représenté en figure 116. 116. Les deux modèles présentent la jambe gauche en avant, plus ou moins tendue avec une posture 60% pour le modèle CASR et une posture 70% pour le modèle TNO. (a)
(b
)
Figure 116.. Position initiale du piéton pour la reconstruction du (a) CASR et de (b) BioPed. En ce qui concerne la cinématique du piéton, de part leur position initiale, le véhicule vient impacter les deux jambes du modèle TNO au même moment alors que le modèle CASR est impacté une jambe après l’autre. Les deux modèles s’allongent sur le véhicule de manière synchronisée, avec une position plus latérale pour le modèle CASR. De ce fait, la tête du modèle piéton CASR se présente en choc latéral téral et le modèle TNO présente sa tête en choc occipital. Par la suite, le modèle TNO est projeté vers le haut, avec une cinématique des jambes apparaissant beaucoup plus souple. La projection des jambes du modèle CASR entraine la rotation du corps en gardant gardant le contact avec le véhicule, alors que le modèle TNO a tendance à ne pas garder le contact. Le tableau 27 résume les résultats obtenus pour le cas réel et les reconstructions selon les méthodes du CASR et de BioPed en termes de vitesse d’impact du véhicule, de distance de projection et de vitesse et localisation de l’impact de la tête. Les valeurs de vitesse du véhicule à l’impact sont très tr proches avec 16.7 m/s et 17 m/s selon la méthode de reconstruction, vitesse proche de la réalité, aux dires des témoins. Les vitesses de la tête montrent également des valeurs peu différentes à l’impact. En revanche, la méthode de reconstruction de la cinématique cinématique par BioPed donne de meilleurs résultats en ce qui concerne la distance de projection, 22 m contre 19 m en réalité alors que la méthode de reconstruction du CASR résulte en une distance de projection du piéton de 30 m. On retrouve l’impact plus latéral atéral de la tête pour la reconstruction CASR avec une longitude de 4 contre une longitude de 6 pour BioPed. 124 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton
Figure 117. Cinématique du piéton, cas P034, reconstruction BioPed (en haut) et reconstruction CASR (en bas). Tableau 27. Résultats des reconstructions selon les méthodes CASR ou BioPed pour le cas P034.
Cette évaluation permet de conclure que la méthode de reconstruction de la cinématique du piéton par l’outil BioPed est capable de fournir de façon automatique une configuration optimale. Cette configuration optimale se présente comme conforme aux données réelles de l’accident P034 telles que la localisation de l’impact de la tête sur le véhicule, la distance de projection ainsi que les témoignages sur la vitesse du véhicule à l’impact.
125 Chapitre 3. Développement d’une méthode de reconstruction de la cinématique du piéton 3.3 Autres cas d’accident
Dans la partie qui suit, une présentation plus succincte des autres sept cas d’accidents ainsi que le prétraitement de l’ensemble des cas est réalisée. La description d’un cas est présentée ci-dessous, cas P030. La description des autres cas peut être trouvée en annexe. Les résultats des différentes reconstructions de la cinématique du piéton sont également présentés dans la partie qui suit.
3.3.1.
| 39,381
|
tel-03638828-TH2021JUDESCLARISSE.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Réponses des poissons et des macroinvertébrés aux variations rapides des conditions hydrauliques à l’aval des centrales hydroélectriques gérées par éclusées. Ecologie, Environnement. Université de Lyon, 2021. Français. ⟨NNT : 2021LYSE1201⟩. ⟨tel-03638828⟩
|
None
|
French
|
Spoken
| 7,272
| 12,680
|
-
Développer des modèles d'atténuation des gradients de vitesse et de largeur
mouillée avec la distance d’évolution. Ces modèles devront considérer la
géomorphologie moyenne du linéaire comme la largeur mouillée, la hauteur
d’eau au module et la pente. Cela permettrait de considérer des tronçons de
pêche plus éloignés des stations de mesure de débit et donc de pouvoir
augmenter drastiquement la taille du jeu de données. Judes et al. (B) avait
imposé une distance <25 km et l'absence d'obstacles majeurs ou d'affluents entre
le jaugeage et la station de pêche poissons.
-
Considérer les variations de température ou des éléments du paysage comme la
présence d’abris ou de confluence. Il y a généralement un compromis à faire
entre précision des données et quantité pour réaliser une analyse multisites.
Judes et al. (B) par exemple ont décidé de ne pas considérer les variations de
températures car elles étaient disponibles sur une proportion trop faible de
tronçon. A l’avenir, l’idéal serait d’avoir un large jeu de données avec des
29
descriptions précises de l'environnement, du paysage et des poissons (taille,
poids) sur le long terme.
30
2. INFLUENCES DES ECLUSEES SUR LA SELECTION DU
MICROHABITAT (ECHELLE DE L’INDIVIDU)
2.1 Etat de l’art : des connaissances parcellaires et contradictoires
Pour être en mesure de comprendre les mécanismes qui expliquent la structure des
communautés aquatiques (poissons, macroinvertébrés), il est nécessaire de descendre au niveau
des réponses individuelles. La sélection du microhabitat fait partie des réponses individuelles
qu’il est intéressant d’étudier pour comprendre comment les éclusées affectent le quotidien des
organismes et les risques associés. Ce genre d’étude peut permettre de répondre à des questions
telles que : Est-ce que les organismes se déplacent pour suivre leurs conditions d’habitat
favorables (induisant des pertes énergétiques) ? Est-ce qu’ils utilisent ou évitent des habitats à
risques (dérive et échouage) ? Est-ce qu’ils restent et subissent des conditions hydrauliques
défavorables (ex. diminution de l’efficacité de nourrissage) ?
A l’échelle du microhabitat, il a déjà été montré que les conditions hydrauliques (hauteur
d'eau, vitesse du courant) peuvent expliquer les effets des éclusées. Par exemple, Halleraker et
al. (2003) ont montré que l'échouage de truites brunes (Salmo trutta) juvéniles se produit
lorsque les gradients verticaux de hauteur d’eau sont supérieurs à 0,10 m h-1. En revanche, on
sait peu de choses sur la façon dont le processus de sélection du microhabitat est influencé par
les variations des conditions hydrauliques à cette échelle.
Concernant les poissons, les conclusions des précédentes études divergent et on ne sait
pas bien si lorsque le débit varie, les poissons (1) suivent leurs conditions d’habitat favorables
dans l’espace ou (2) restent sur place et subissent des conditions d’habitat pouvant être
défavorables. Kemp et al. (2003), en milieu expérimental, et Korman et Campana (2009), par
pêche électrique in situ, ont constaté que peu d'individus (Salmon parr et Oncorhynchus mykiss
respectivement) cherchent à se maintenir dans un habitat favorable lorsque le débit varie. Deux
à trois fois plus de poissons étaient pêchés proche des berges à bas débit par rapport à haut
débit. A l’inverse, Robertson et al. (2004) et Harby et al. (2001) ont montré que les juvéniles
de saumons atlantiques se déplaçaient à chaque variation de débit pour suivre leurs conditions
d'habitat favorables. Par ailleurs, certains organismes seraient capables de percevoir leur
environnement et de sélectionner les habitats les moins variables. C’est ce qu’ont montré Capra
31
et al (2017) par télémétrie sur le Rhône en France sur trois espèces de poissons (barbeau,
chevesne et silure) : les organismes évitaient les zones qui s’assèchent lors des baisses de débit.
De même, Geist (2008) a montré en laboratoire que les esturgeons sélectionnent les habitats les
moins variables en termes de vitesse.
Concernant les macroinvertébrés, des études ont montré (1) qu’ils étaient moins
abondant le long des berges à cause des assèchements fréquents (Fisher et al. 1972, Troelstrup
et al. 1990, Blinn et al. 1995) et (2) que la zone hyporhéique (dans le substrat) pourrait jouer un
rôle de refuge lors des fortes vitesses ou des assèchements (Dole-Olivier et al. 1997,
Stubbington et al. 2019). Cependant, peu d’études ont comparé la réponse des macroinvertébrés
benthiques à celle des macroinvertébrés hyporhéiques dans les rivières à éclusées pour
confirmer cette dernière hypothèse.
Malgré les études montrant que la dynamique spatio-temporelle des habitats pouvait
influencer le comportement de sélection du microhabitat des poissons et des macroinvertébrés,
peu d’articles ont étudié de manière quantitative l’influence des assèchements et encore moins
celle des fortes vitesses de courants passés sur la sélection du microhabitat des poissons et des
macroinvertébrés (Capra et al 2017). Cela est certainement dû à la difficulté de décrire les
conditions hydrauliques passées des microhabitats car cela nécessite des modèles
hydrodynamiques précis et spatialement explicites, tels que des modèles bidimensionnels (2D)
qui permettent de cartographier les hauteurs d’eau et les vitesses du courant (moyennées sur la
verticale) à différents débits. L'étalonnage (hauteur d’eau pour un ou des débits donnés) et la
validation (hauteur d’eau et en vitesse du courant) des modèles 2D prend beaucoup de temps et
sont donc très coûteux. De plus, chercher les liens entre la sélection du microhabitat et les
conditions hydrauliques passées nécessite un travail de terrain important, afin d'échantillonner
les organismes à plusieurs débits dans un nombre suffisant de microhabitats et avec diverses
combinaisons de conditions hydrauliques passées et présentes (p. ex. pour limiter la corrélation
négative attendue entre la fréquence d'assèchement et la hauteur d’eau).
32
2.2 Les variations hydrauliques influencent la sélection du microhabitat
des macroinvertébrés et des poissons dans les rivières à éclusées (Judes
et al. B)
Judes et al. (B) ont étudié l'effet des éclusées de la basse rivière d'Ain (Encadré 3) sur
la sélection du microhabitat des poissons et des macroinvertébrés principalement dans le but de
(1) quantifier l’influence de l’hydraulique passée (assèchement et forte vitesse) sur la sélection
de l'habitat et (2) de montrer si la sélection du microhabitat dans une rivière à éclusées était
différente de la sélection du microhabitat dans des tronçons de rivière non influencés par des
éclusées. Pour cela, Judes et al. (B) ont observé l'abondance des taxa de poissons dans 507
microhabitats par pêche électrique et 673 microhabitats par observations subaquatiques et
l'abondance des taxa de macroinvertébrés benthiques et hyporhéiques dans 36 microhabitats le
long d'un tronçon de 6 km en conditions d’éclusées. L'échantillonnage a été réalisé à différents
débits pour réduire la corrélation entre les conditions hydrauliques présentes et passées (p. ex.
la corrélation négative attendue entre la fréquence d'assèchement et la hauteur d’eau). Un
modèle hydraulique 2D calibré sur le tronçon a permis de simuler l’hydraulique passée des
microhabitats. Pour chaque microhabitat le passé hydraulique a été représenté par deux
variables : l’assèchement et les vitesses de courant élevées (>1,3 m s-1) sur les 15 jours
précédant l’échantillonnage. Ces deux variables étaient qualitatives : condition rencontrée
pendant plus de 10 heures ou moins de 10 heures. L’influence des conditions hydrauliques, a
été testée sur des guildes de taxa représentant les préférences d’habitat. Pour les poissons, la
guilde “chenal” regroupe les taxa utilisant des habitats à fortes vitesses de courant et profond,
et la guilde “berge”, les taxa utilisant les habitats peu profonds et des faibles vitesses de courant.
Judes et al. (B) ont regroupé les macroinvertébrés préférant les faibles vitesses de courant dans
la guilde “limnophile” et ceux ayant une affinité pour les fortes vitesses de courant dans la
guilde "rhéophile". Seule la comparaison de la sélection du microhabitat dans l’Ain avec les
rivières sans éclusées a été faite sur les taxa individuellement quand des données étaient
disponibles dans la littérature. Chaque abondance de guilde a été liée à l’hydraulique passée et
présente des microhabitats (mesurée lorsqu'elle est disponible, modélisée sinon) par des GLMs.
Pour éviter une surparamétrisation et en raison d'une puissance statistique limitée, Judes et al.
(B) ont dû considérer des modèles impliquant des combinaisons d'une seule variable
hydraulique présente (hauteur d’eau/vitesse) et d'une seule variable hydraulique passée
(assèchement/forte vitesse).
33
Encadré 3. Zoom sur la rivière d’Ain.
La rivière d’Ain est le plus important affluent du haut Rhône, elle
draine un bassin versant de 3630 km2 et parcourt 200 kilomètres de
sa source sur le plateau de Nozeroy (Jura) à sa confluence avec le
Rhône (St Maurice de Gourdans). La rivière d’Ain a un régime
pluvial (ou pluvio nival), elle est soumise à des crues rapides et
fortes (les crues cinquantennales sont de 2500 m3 s-1). De par son
lit constitué de galets et de graviers et ses berges très érosives
(galets, sables, limons), elle se transforme à chaque crue.
Il existe six centrales hydroélectriques sur la rivière d’Ain, de
l’amont vers l’aval : Vouglans, Saut Mortier, Coiselet, Moux
Charmines, Cize-Bolozon et le barrage d’Allement. Le tronçon d’étude de Judes et al. (B.)
est situé à 20 km à l’aval du barrage de l’Allement dans ce qu’on appelle la Basse Vallée de
l’Ain.
Le débit moyen annuel sur ce site d’étude est de 103 m3 s− 1 avec un débit moyen journalier
compris entre 14 m3 s-1 (dépassé 95% du temps) et 278 m3 s-1 (dépassé 5% du temps). Le
tronçon d'étude est soumis à de fréquentes variations de débit infra-journalières, avec un débit
de base généralement compris entre 14 m3 s-1 et (occasionnellement) 150 m3 s-1 et un débit
de pointe généralement compris entre 40 m3 s-1 et 200 m3 s-1. Le débit est plus stable pendant
les week-ends et les périodes
de
faible
débit
(juinseptembre).
La Basse Vallée de l’Ain est
connue pour sa faune
piscicole variée, on y compte
de nombreuses espèces de
cyprinidés
(barbeaux,
chevesnes, vairons, hotus…)
mais aussi des salmonidés,
l’ombre commun et la truite.
Elle était jusqu’en 1994 la seule rivière en France à être classée « principalement peuplée
d’ombres communs ». Elle possédait de ce fait une grande renommée au niveau européen
pour la pêche. Dès 1939, Vibert évoquait l’impact des éclusées sur les peuplements de
poissons et la biodiversité sur l'Ain et exposait la perte économique encourue si l’image
halieutique de la rivière d’Ain se dégrade. De 1994 à 2011, la convention « Frayères » passée
entre EDF et la fédération de pêche de l’Ain garantissait un débit minimum de 28 m 3 s-1
pendant la période de reproduction des salmonidés (01/12 - 01/05), alors qu’il est
réglementairement de 12,3 m3 s-1 le reste de l’année, en sortie d’Allement. Le but de cet
accord était de limiter l’exondation des zones de fraie après la ponte. Une nouvelle
convention (la convention « Salmonidés ») a été signée en janvier 2013. Encore maintenant,
les associations de pêche de la basse vallée de l’Ain négocient avec EDF pour limiter au
maximum l’impact des éclusées sur les poissons.
34
Figure I.6. Échantillonnage des poissons et des macroinvertébrés à plusieurs débits sur
l’Ain et carte des vitesses de courant obtenue à partir du modèle hydraulique 2D (Judes
et al. B). (A) Echantillonnage de macroinvertébrés hyporhéiques (avec un tube bou-rouch).
(B) Echantillonnage de macroinvertébrés benthiques (avec un bethométre). (C)
Echantillonnage de poissons par pêche électrique. (D) Echantillonnage de poissons par
observations subaquatiques. (E) Débit horaire à Pont d'Ain (7,5 km en amont du tronçon
d'étude) pendant les 15 jours précédant l'échantillonnage et pendant l'échantillonnage (2018).
Les flèches indiquent les jours d'échantillonnage à midi. A noter que les forts débits (~100
m3 s-1) du 17 septembre au 28 septembre sont des lâchers d’eau pour le soutien des centrales
nucléaires du Rhône. (F) Cartes de la vitesse de courant pour le débit maximal et le débit
minimal rencontrés sur la période d'étude. La flèche indique le sens du courant.
35
Judes et al. (B) ont montré que l’hydraulique passée, en particulier les assèchements
passés, influence grandement la sélection des microhabitats des macroinvertébrés. Les
macroinvertébrés étaient 3-15 fois moins abondants dans les microhabitats qui se sont asséchés.
Les macroinvertébrés ne semblent pas capables de suivre leurs conditions d’habitat favorables
puisque leurs préférences pour l'hydraulique présente étaient différentes de celles observées
dans les rivières sans éclusées (Figure I.7). Ces observations amènent à se questionner sur le
terme de « sélection du microhabitat » lorsque l’on parle d’organismes à faible mobilité dans
des rivières très dynamiques telles que les rivières à éclusées (Encadré 4). Par ailleurs, Judes et
al. (B) ont montré que les macroinvertébrés benthiques et hyporhéiques ont répondu de la même
manière aux assèchements. Au vu de ce résultat les macroinvertébrés dits « hyporhéiques » ont
probablement été échantillonnés encore dans la zone benthique même si les prélèvements se
sont faits à 30 cm de profondeur dans le substrat. Il semblerait, en tout cas, qu’à cette profondeur
le substrat ne soit pas saturé en eau de façon pérenne. Les futures recherches devront tester s’il
existe une zone hyporhéique pérenne sur les bords de la rivière d’Ain, si oui à quelle profondeur
elle se trouve et si elle joue un rôle refuge à l’asséchement pour certain taxa de macroinvertébrés
(certainement les plus petits).
Encadré 4. La sélection du microhabitat dans les milieux fortement dynamiques.
La sélection de l’habitat est définie comme un choix actif (inné ou appris) d’utiliser un
habitat plutôt qu’un autre disponible autour de lui (Krausman 1999). L'abondance est utilisée
comme un proxy de la sélection de l’habitat puisque la préférence d'habitat se traduit par
l'utilisation disproportionnée de certains habitats par rapport à d'autres (Morrison et al. 1992).
Lorsque l’hydrologie est naturelle (moins variable que dans les rivières à éclusées),
l'hypothèse d’un choix actif est certainement vraie mais cela peut poser question dans les
rivières à éclusées, en particulier pour les taxa ayant de faibles capacités de déplacement (ex.
les macroinvertébrés). Dans un milieu fortement variable, la part de processus actif et passif
expliquant l'abondance d’un taxon dans un microhabitat dépend de la durée entre le
changement de débit et l'échantillonnage par rapport aux capacités de déplacement et de
résistance du taxon (à l'assèchement ou aux fortes vitesses de courant). Par exemple, si un
organisme a de faibles capacités de déplacement, les abondances observées à l’instant t
peuvent refléter un choix actif ayant eu lieu à l’instant t-1 puis une résistance aux conditions
de l’instant t (choix passif). Plus les conditions de ce que l’on observe sont là depuis
longtemps (durée dépendante du taxon considérée), plus il est probable que les abondances
observées soient issues d’un processus actif de sélection de l'habitat.
Judes et al. (B) ont montré que les poissons suivent leurs conditions d’habitat favorables
(Figure I.7). Ces résultats s'opposent à certaines études ayant montré que les poissons étaient
réticents à se déplacer pour suivre leurs conditions d’habitat favorables avec le débit (Kemp et
al. 2003, Korman & Campana, 2009). Les différences de réponses dépendent certainement de
36
l'équilibre entre le gain/perte associé au fait (1) d’être toujours dans les conditions hydrauliques
favorables (gain: optimisation de l'alimentation et du repos ; perte: coût énergétique et risque
de prédation associé au déplacement) et (2) de rester au même endroit (gain: garder le territoire
et éviter la prédation pendant le déplacement ; perte: difficulté à se nourrir ou à se reposer et
coût énergétique lié au fait de subir des conditions hydrauliques défavorables) (Korman et al.
2009). Ces différences sont aussi largement attribuées à des facteurs (1) physiques, par exemple
la présence de refuges de vitesse et la dynamique spatio-temporelle des habitats et (2)
biologiques, par exemple la variabilité inter et intra-individuelle ou la présence de prédateurs
(Krimmer et al. 2011, Taylor et al. 2014).
Judes et al (B) ont montré que l'hydraulique passée avait une influence moins forte sur
la sélection de l’habitat des poissons par rapport aux macroinvertébrés. Néanmoins, les poissons
de la guilde « berge » sélectionnent positivement les microhabitats qui se sont asséchés et à
l’opposé les poissons de la guilde “chenal” les évitent. Ces différences s'expliquent par les
préférences d’habitat plus strictes des poissons de la guilde “berge”, ils sont obligés d’utiliser
les microhabitats qui s'assèchent pour rester dans leurs conditions d’habitat favorables. La
relation positive s’explique par le fait que les poissons se réfugient sur les bords lors des
augmentations de débits. Les résultats de Judes et al. (B) fournissent donc un aperçu
mécanistique permettant en partie d’expliquer comment les espèces de poissons des rivières de
taille moyenne sont affectées par les éclusées : les poissons suivent leurs conditions d’habitat
favorables et ces déplacements provoquent certainement des pertes énergétiques, de la fatigue
et augmentent le risque de prédation. Certaines études ont montré qu’effectivement les poissons
se déplacent plus dans les rivières à éclusées que dans les rivières sans éclusées (Harby et al.
2001, Harvey-Lavoie et al. 2016) mais d’autres n’ont pas trouvé de différence (Bunt et al. 1999,
Berland et al. 2004). Néanmoins, ces études impliquent des suivis individuels par télémétrie et
ignorent généralement les déplacements et mouvements des petits organismes (plutôt guilde
« berge ») qui semblent les plus concernés par ces déplacements fréquents.
Judes et al (B) n’ont pas montré d’influence significative des fortes vitesses passées
chez les poissons et chez les macroinvertébrés limnophile. Les poissons de la guilde “berge”
restent proches des berges et ne subissent donc pas les fortes vitesses alors que les poissons de
la guilde “chenal” arrivent certainement à les supporter ou se cachent dans les refuges
hydrauliques. Les macroinvertébrés rhéophiles auraient tendance à sélectionner positivement
les microhabitats soumis à des fortes vitesses passées. Ils ont certainement la capacité de résister
37
aux fortes vitesses en raison de leurs adaptations morphologiques ou comportementales aux
fortes vitesses de courant. Holomuzki & Biggs (2000) ont étudié la réponse du comportement
de quatre espèces de macroinvertébrés de Nouvelle-Zélande (l'escargot Potamopyrgus
antipodarum, l'éphémère Deleatidium spp, et deux espèces de Tricoptère : Pycnocentrodes
aeris et Hudsonema amabilis) aux fortes vitesses de courant (1,4 m s-1). Ils ont montré que ces
espèces pouvaient “sentir” l’augmentation des contraintes de cisaillement et y répondre
rapidement. L’ensemble des espèces ont réalisé de petits mouvements entre les couches de
substrat pour chercher des refuges hydrauliques, en s'enfonçant dans le substrat ou en se
repositionnant à la surface du substrat (Lancaster et al. 1997). Par ailleurs, certains taxa ont des
adaptations physiologiques pour s'accrocher aux substrats et tenir lors des fortes vitesses de
courant. Par exemple, les Trichoptères se fixent aux substrats à l’aide de leurs soies, l'éphémère
grâce à ces griffes tarsiennes et l'escargot par son pied.
Les principaux résultats de la thèse sont résumés dans la Figure I.8.
38
Figure I.7. Résumé des résultats de Judes et al. (B). (A) Ajustements des modèles (ou
courbe de préférence d’habitat) reliant l'abondance des guildes à l'hydraulique présente et
incluant un effet additif de l'assèchement (courbe rouge). Les étoiles (**) indiquent que
l'effet de l'hydraulique passée était significatif P<0,01. (B) Adéquation de la préférence
moyenne pour la vitesse obtenue dans Judes et al. (B) avec les données de la littérature sur
des rivières majoritairement non-soumises aux éclusées. Les régressions des axes (lignes
pleines) sont représentées ainsi que les lignes y = x (lignes pointillées). (C) Tableau des
effets des variables de l’hydraulique passée sur l’abondance des guildes de taxa. Les flèches
rouges représentent un effet négatif, les flèches bleues un effet positif. Le nombre de flèches
représente la significativité des résultats : une flèche pour P<0,05 ; double flèche pour
P<0,01. Les résultats sur les poissons concernent uniquement les données de pêche
électrique (les observations subaquatiques n’ont pas révélé d’effets significatifs de
l’hydraulique passée).
39
Figure I. 8. Résumé des principaux résultats de la thèse.
2.3 Perspectives scientifiques
Quelles sont les conséquences des mouvements fréquents des poissons sur leurs
bilans bioénergétiques ?
Judes et al (B) ont montré que les poissons de la guilde « berge » (globalement des
juvéniles) se repositionnent à chaque changement de débit pour suivre leurs conditions d’habitat
favorables. Les déplacements fréquents de ces poissons provoquent certainement des pertes
énergétiques, de la fatigue et augmentent le risque de prédation.
Plusieurs études ont comparé de manière qualitative le poids par rapport à la taille
(condition physique), la masse corporelle, ou le taux de croissance des organismes entre des
conditions avec ou sans variations artificielles de débit (en laboratoire ou in situ). Malgré
quelques exceptions (Puffer et al. 2015), la majorité des études ne semblent pas avoir montré
d’effets des éclusées sur ces paramètres (Enders et al. 2017, Finch et al. 2015, Flodmark et al.
2006, Puffer et al. 2017). Par exemple, Puffer et al. (2017) et Foldmark et al. (2006), dans des
40
chenaux artificiels, ont montré uniquement des effets mineurs et non significatifs des éclusées
sur les performances de croissance des salmonidés (saumons atlantiques et juvéniles de truites
brunes). Ainsi cela suggère que le bilan bioénergétique est équilibré (c.-à-d. que l'énergie
dépensée est égale à l'énergie gagnée) : il ne semble ne pas y avoir d'augmentation ou de
diminution des réserves internes d'énergie en réponse aux éclusées. Cependant, puisque tout
comportement utilise du temps et de l'énergie (Cuthill et al. 1997), soit (1) la dérive des
macroinvertébrés, plus forte durant les éclusées (Schulting et al. 2016), permet de compenser
les pertes énergétiques pour certains taxa, soit (2) pour compenser les poissons sont obligés
d'augmenter leur temps à rechercher de la nourriture. Puisque les organismes sont sujets à des
plus forts risques de prédation lorsqu’ils sont en recherche de nourriture que lorsqu’ils se
reposent (McNamara et al. 1992) cela peut affecter leurs survies. Il est donc important d’étudier
si le temps de recherche de nourriture est plus important dans les rivières à éclusées. Pour cela,
je suggère deux approches.
Premièrement, une approche empirique visant à comparer le temps à rechercher de la
nourriture par les poissons avec ou sans éclusées. Bien qu’aucune ne soit idéale pour le moment,
plusieurs méthodes sont possibles. Parmi elles, l’expérimentation ex situ ou in situ via des
vidéos (Boisclair, 1992, Enders et al. 2005, Sabo et al. 1996, Shamur et al. 2016). Les approches
basées sur la vision fonctionnent bien lorsque l'eau est claire et que les poissons sont dans le
champ de vision de la caméra. Lorsque ce n’est pas le cas, il sera peut-être bientôt possible
d’utiliser des électrocardiogrammes puisque Shen et al. (2021) ont développé un algorithme
permettant de détecter les phases de nourrissage par les changements du rythme cardiaque.
Cependant, utiliser le rythme cardiaque en tant qu'indicateur d'activité peut être parfois difficile
puisque la fréquence cardiaque est influencée par d'autres variables (température de l’eau, stress
etc.). Pour l’instant, il n’est pas possible d’étudier les comportements de recherche de nourriture
par des suivis individuels de poissons par télémétrie en rivière car la précision des localisations
ne permet pas de les différencier du repos.
Deuxièmement, une approche théorique qui consisterait à convertir les distances entre
les deux habitats favorables successifs (Batz et al. soumis) en coût énergétique associé à la nage.
La conversion des mouvements des poissons en coûts nécessite des relations entre les
caractéristiques des mouvements et les dépenses énergétiques. Les relations sont généralement
développées à partir d'expériences de respiromètrie réalisées en laboratoire (Enders et al. 2005,
Enders et al. 2003, Guensch et al. 2001, Sabo et al. 1996). Une fois les pertes énergétiques
41
connues, elles pourraient être traduites en temps supplémentaire à rechercher de la nourriture
grâce à des modèles de recherche de nourriture. Les modèles de recherche de nourriture sont
des simplifications du mode de vie dans lequel les poissons trouvent et consomment leurs
nourritures. Ces modèles prennent en considération des facteurs tels que le comportement de
recherche de nourriture, la vitesse de nage, la densité et la taille des proies, la distance et
l'efficacité de capture des proies (et leur dépendance par rapport à la clarté de l'eau) (Guensch
et al. 2001, Hayes et al. 2007).
Comment compléter l’étude de Judes et al. (B) ?
Pour confirmer les hypothèses formulées par Judes et al. (B) il faudrait tout d’abord
tester si l’effet de l’hydraulique passée sur la sélection du microhabitat des poissons et des
macroinvertébrés est transférable et généralisable à d’autres rivières. Pour cela, il faudrait
réaliser la même expérimentation que Judes et al. (B) dans une rivière à l’hydrologie et à
l’intensité de gestion des éclusées contrastées par rapport à la rivière d’Ain.
Concernant les macroinvertébrés, plusieurs approches sont possibles pour compléter
l’étude de Judes et al. (B). Premièrement, Judes et al. (B) ayant échantillonné uniquement à fort
débit (~ 100 m3 s-1) et au débit de base (14 m3 s-1), il faudrait échantillonner à des débits
intermédiaires (p. ex. 28/50/70 m3 s-1) afin de tester la réponse des macroinvertébrés à d’autres
patterns d’assèchement (p.ex. différentes durées entre deux remises en eau et différentes
fréquences d’assèchement). Deuxièmement, il faudrait tester l’influence de la durée depuis la
remise en eau puisqu’il s’agit un facteur important pour la recolonisation des microhabitats
asséchés (Kjaerstad et al. 2018). Pour cela, il faudrait échantillonner des microhabitats remis en
eau depuis différentes durées (p. ex. 15 jours, 1 mois, 2 mois). Sur l’Ain, pour obtenir une
longue période de fort débit il faudra échantillonner à la fin du printemps. A priori, Judes et al.
(B) ont montré qu’une période de huit à neuf jours de fort débit (lâché prolongé de 100 m3 s-1
pour le fonctionnement des centrales nucléaires du Rhône, Figure I.6) ne suffit pas pour
permettre la recolonisation complète des microhabitats souvent asséchés. Troisièmement, il
faudra tester l’influence de l’hydraulique passée vécue sur une période plus longue avant
l’échantillonnage que les 15 jours testés par Judes et al. (B) (c.-à-d. 1 mois ou 2 mois avant
l’échantillonnage). L’été 2018 (juste avant l’échantillonnage de Judes et al. (B)) a été très sec,
les débits n’ont pas dépassé 100 m3 s-1 de la mi-juin à la fin août. Cette longue période de faible
42
débit a pu expliquer en partie la réponse des macroinvertébrés à l’asséchement de Judes et al.
(B). Enfin, il faudrait répliquer l’expérimentation de Judes et al. (B) au printemps pour avoir le
maximum de taxa échantillonnés et identifiés jusqu’à l’espèce. En effet, Judes et al. (B) ayant
échantillonné en automne ils n’ont pas pu étudier l’ensemble des taxa de l’Ain car la plupart
émergent au printemps ou été (Brabec et al. 2021, Buffagni et al. 2021, Graf et al. 2021 a, b).
Judes et al. (B) avaient dû faire un compromis entre l’hydrologie (avoir des débits contrastés)
et la période idéale des échantillonnages biologiques.
Concernant les poissons, pour confirmer que les poissons de la guilde “chenal” évitent
les microhabitats qui s’assèchent, il faudra d'abord tester l’influence de la disponibilité des
habitats sur la sélection de l’habitat (Encadré 5) (Pert et al. 1994). Cela n’a pas pu être fait par
Judes et al. (B) à cause d’un manque de pouvoir statistique lié au fait de devoir diviser le jeu de
données en deux (faible et fort débit) pour le tester. Par ailleurs, l’échantillonnage sur des
poissons de la guilde “chenal” devra être complété par des observations subaquatiques à fort
débit ou des suivis par télémétrie. L'avantage de l’observation subaquatique est qu’elle permet
d’apporter de grandes quantités de données rapidement et à faible coût, mais pourrait être
limitée par des vitesses de courant trop fortes. La télémétrie est sans doute la seule méthode
permettant d’observer les organismes dans les habitats à fortes vitesses de courant, mais elle
peut être sensible à la profondeur (radio) ou à la turbulence (acoustique). Cette méthode
permettrait cependant de tester si les poissons de la guilde « chenal » utilisent des habitats à
plus fortes vitesses de courant lors des forts débits.
Par ailleurs, il serait intéressant de tester l’influence de l’hydraulique passée sur la
sélection du microhabitat par les poissons par d’autres méthodes que les modèles corrélatifs
développés par Judes et al. (B). Parmi les autres méthodes existantes, il y a l'écologie du
mouvement (Nathan et al. 2008) qui vise à étudier les interactions entre les individus et
l’environnement dans leurs déplacements par l'analyse des trajectoires observées des
organismes (p. ex. vitesse, orientation, changements de direction). Cette approche pourrait être
mise en œuvre par télémétrie acoustique (précision dans la localisation des poissons < 5 m)
dans un tronçon pour lequel un modèle hydraulique 2D est disponible. La télémétrie acoustique
permet de calculer la vitesse et les directions des déplacements des poissons, de détecter les
phases d'accélération et les changements de direction à échelle fine quasiment en temps réel.
La première étape consistera à proposer des indicateurs de trajectoire (vitesse absolue, vitesse
43
angulaire, accélération, etc.) pour discriminer les différents types de comportements
(statique/mouvement). Ensuite, grâce au modèle hydraulique 2D, il s’agira de décrire comment
l’hydraulique présente et passée (même variables testées que Judes et al. (B)) influence les
changements de comportement. L’hypothèse serait que pour les poissons de la guilde
« chenal », la probabilité de rester dans un microhabitat qui s’assèche est plus faible que de
rester dans un microhabitat qui ne s’assèche pas alors même que les conditions hydrauliques
présentes sont semblables. Concernant les poissons de la guilde « berge », il serait intéressant
d’étudier le temps de réaction pour fuir les microhabitats qui vont s’assécher lors des baisses
de débit.
Encadré 5. Influence de la disponibilité de l’habitat sur l’interprétation des résultats
des études sur la sélection de l’habitat
Lorsque des différences de comportement de sélection de l’habitat sont observées à différents
débits, elles peuvent être liées à une différence de disponibilité de l’habitat. En effet, certains
organismes peuvent choisir différentes conditions d’habitat en fonction de la gamme de
valeurs disponibles autour d’eux
(Belaud et al. 1989, Arthur et al.
1996). Si en effet, les organismes
suivent la disponibilité des habitats
alors il peut y avoir des erreurs
dans l'interprétation des résultats,
c’est-à-dire de conclure à un
évitement des microhabitats qui
s’assèchent à tort.
La figure ci-contre illustre les
courbes de sélection de la
profondeur d’eau à bas débit (14
m3 s-1) et à haut débit (214 m3 s-1)
pour la guilde “chenal” issues des
données de Judes et al. (B). Les
valeurs de disponibilité de l’habitat de moins d’un mètre dans le tronçon d’étude de Judes et
al. (B) à bas et à haut débit sont aussi représentées (obtenues à partir du modèle
hydrodynamique 2D). Dans cet exemple, à bas débit, 91% des poissons se trouvent dans des
habitats de moins d’un mètre alors que ces derniers représentent 77% de l’habitat disponible.
Dans ces habitats de moins d’un mètre on ne retrouve plus que 57% des poissons
échantillonnés à haut débit mais ces habitats ne représentent plus que 34% de l’habitat
disponible. Les habitats de moins d’un mètre à haut débit sont en grande majorité soumis à
des assèchements fréquents (81 %). Ainsi si l’on ne considère pas la disponibilité et que l’on
met dans une même analyse les données issues des échantillonnages à haut et à bas débit, il
est fort probable que la conclusion soit que les poissons évitent les zones d’assec alors qu’en
réalité ils les sélectionnent positivement (plus nombreux dans les zones d’assec par rapport
à leur disponibilité).
44
Judes et al. (B) ont étudié l’hydraulique présent par deux variables corrélées, la hauteur
d’eau et la vitesse moyenne du courant. A l’avenir, il faudra considérer la hauteur d’eau et la
vitesse simultanément dans les modèles statistiques. Mieux encore, pour ne pas surparamétrer
les modèles et parce que les organismes perçoivent la hauteur d’eau et la vitesse de courant
simultanément (Coarer 2007, Muñoz-Mas et al. 2012, Plichard 2018), il faudrait utiliser une
variable qui combine la hauteur d’eau et la vitesse comme le nombre de Froude (FR=V/[g x
H]0.5 ou g est l’accélération due à la gravité, sans diminution) (Lamouroux et al. 2002). Par
ailleurs, les conditions hydrauliques ne sont pas les seuls paramètres qui décrivent l’habitat des
poissons et des macroinvertébrés. Les futures études devront tenir compte de la température et
du substrat. D’une part, ces paramètres influencent la sélection du microhabitat par les poissons
et les macroinvertébrés (Bradford et al. 1997, Choi et al. 2017) et cela peut possiblement
masquer les effets de l’hydraulique passée. D’autre part, ils influencent la susceptibilité à
l'échouage-piégeage et à la dérive et ainsi peuvent influencer le choix d’occuper ou non un
microhabitat qui s’assèche ou qui est soumis à des fortes vitesses de courant. Par exemple,
l’échouage des poissons semble être plus élevé dans les substrats grossiers (>7,6 cm) par rapport
à des substrats plus fins (Beck et al. 1989), et durant les basses températures (Bradford et al.
1997).
Y a-t-il une adaptation comportementale aux variations des conditions
hydrauliques ?
En général, le processus de sélection du microhabitat est adaptatif car il repose sur des
signaux (p. ex. conditions hydrauliques) qui, au cours de l'évolution, ont été corrélés de manière
fiable avec la survie et le succès reproducteur. Cependant, si l’environnement change
soudainement (p.ex. apparition des éclusées), ces signaux jusqu’alors considérés peuvent ne
plus être en corrélation avec le résultat attendu et, par conséquent, la sélection du microhabitat
peut ne plus être adaptative (Williams et al. 1984). Dans le cas des rivières à éclusées, par
exemple, suivre ses préférences d’habitat n’est plus adaptatif si l’organisme n’est pas capable
de fuir à temps les conditions hydrauliques extrêmes pour échapper l’échouage-piégeage ou la
dérive forcée. Dans ce cas, le comportement le plus adaptatif serait de sélectionner des habitats
certainement moins favorables à l’instant t mais qui ne subissent pas de changements
hydrauliques extrêmes (microhabitats qui ne s’assèchent pas ou qui ne sont pas soumis à des
fortes vitesses de courant). Un tel changement de comportement pourrait apparaitre par
45
plasticité phénotypique (basé sur l’apprentissage) ou par sélection naturelle (sélection sur la
variation génétique existante) (Kokko et al. 2001, Schlaepfer et al. 2002).
Judes et al (B) ont étudié la réponse d'individus de l’Ain subissant des éclusées depuis
1930, il est donc possible que ces individus soient adaptés (sélection naturelle) ou acclimatés
(plasticité phénotypique) aux variations rapides des conditions hydrauliques. En particulier, les
poissons de la guilde « chenal » sont peut-être adaptés ou acclimatés pour éviter les
microhabitats qui s’assèchent et les poissons de la guilde « berge » sont peut-être adaptés ou
acclimatés pour changer rapidement de position lors des baisses ou des hausses de débits. Pour
tester
ces
hypothèses,
je
comparerais
en
condition
expérimentale
les
réponses
comportementales aux variations hydrauliques artificielles d'organismes issues de rivière à
éclusées avec ceux issus de rivière non influencée par les éclusées. Concrètement, il s’agirait
de regarder le temps de réponse pour fuir les microhabitats qui vont s’assécher en fonction de
l’origine des poissons, ou les préférences moyennes pour la vitesse et la hauteur d’eau. A priori,
Judes et al. (B) suggèrent que les préférences pour les vitesses moyennes pourraient être plus
faibles dans les rivières à éclusées (Figure I.7), il s’agit peut-être d’une adaptation (ou
acclimatation) pour éviter de se faire emporter par les fortes vitesses de courant lors des hausses
de débit. Une autre manière de faire serait d’étudier génération après génération comment la
sélection du microhabitat des taxa évolue dans une rivière récemment soumise aux éclusées.
46
3. PERSPECTIVES OPERATIONNELLES
3.1 Considérer les connaissances sur la sélection du microhabitat pour
mieux quantifier l’influence des éclusées à l’échelle du tronçon
L'échelle du microhabitat est celle qui représente le mieux les conditions d'habitat qui
sont perçues et exploitées par les organismes. Il s’agit donc de l’échelle la plus pertinente pour
essayer d’identifier les mécanismes expliquant les observations faites à des échelles plus larges.
Cependant, les mesures opérationnelles ignorent généralement l’influence des perturbations à
l’échelle du microhabitat (Pringle et al. 1988) et concernent principalement l'échelle du tronçon.
Il est donc nécessaire de disposer de méthodes qui intègrent les résultats obtenus à l’échelle du
microhabitat dans des approches qui permettent d'estimer l’influence des perturbations sur les
populations à l’échelle du tronçon (Winemiller et al. 2010).
Quantifier la dynamique spatio-temporelle des habitats
En partant du constat que les poissons et les macroinvertébrés ne répondent pas de la
même manière aux éclusées (mouvement ou statique), Batz et al. (Soumis) suggèrent une
approche pour quantifier l’influence de dynamique spatio-temporelle des habitats sur les
organismes selon un trait d’histoire de vie : la mobilité.
On a vu précédemment que les poissons suivent leurs conditions d’habitat favorables et
que ces déplacements peuvent entrainer des pertes énergétiques (dues à la nage) et/ou
augmentent le risque de prédation. Ainsi, Batz et al (Soumis) ont proposé des métriques
quantifiant les distances de déplacement nécessaires pour se maintenir dans une condition
d’habitat particulière à chaque changement de débit (Figure I.9). L’hypothèse étant que les
poissons se déplacent dans le nouveau microhabitat favorable le plus proche de lui à chaque
changement de débit. Cependant, Shirvell (1994) a montré par télémétrie qu’un poisson se
déplaçait en moyenne de 6,8 m à chaque changement de débit alors que les conditions
hydrauliques se déplaçaient latéralement en moyenne de 2,0 à 2,9 m. Ce résultat contraste avec
les précédentes études montrant que les poissons sont capables de percevoir leur environnement
et d'adapter le comportement de sélection de l’habitat le moins contraignant possible (Geist et
al. 2005, Capra et al. 2017). De plus, le suivi strict des conditions d’habitat favorables concerne
47
certainement plus les poissons de petite taille (guilde « berge ») qui ne peuvent pas être suivis
par télémétrie. Les futures études devront creuser les liens entre déplacements des organismes
et déplacements des conditions d’habitat (Conallin et al. 2014) mais cela risque d’être
compliqué à réaliser puisque les poissons se déplacent souvent dans différents habitats selon
leurs activités (p. ex. repos, recherche de nourriture).
A l’inverse, les macroinvertébrés, du fait de leurs faibles capacités de déplacement, sont
particulièrement affectés par les variations des conditions d’habitat au sein des microhabitats.
Pour rendre compte de la perturbation vécue par les macroinvertébrés, Batz et al (Soumis)
proposent de délimiter des patchs (zones géographiquement fixes (Pickett et al. 1997) entre 0
et 100m2 (Pringle et al. 1988, Winemiller et al. 2010) et d’examiner les variations temporelles
des conditions d’habitat au sein de ces patchs. Concrètement, ils ont délimité cinq classes
(toutes les 0.25 m s-1) de conditions de vitesse (ou de hauteur d’eau) et ont quantifié le nombre
de changements de classe sur une période donnée. Ils proposent aussi de quantifier la
persistance temporelle d’une condition d’habitat dans les patchs alors que la persistance était
jusqu’alors utilisée pour décrire les tronçons (Freeman et al. 2001). A l’échelle du microhabitat,
Judes et al. (B) suggèrent que la persistance de mise en eaux semble importante pour les
macroinvertébrés en général et la persistance des faibles vitesses de courant importante pour les
macroinvertébrés limnophiles.
La persistance des faibles vitesses pourrait aussi être favorable pour les poissons pour
des stades de vie précoces comme les œufs puisque la persistance des conditions de vitesses
faibles semble essentielle pour limiter le décapage. Par exemple, Bartoň et al. (2021) ont montré
que le site de frai des poissons ne devrait pas dépasser 0,7 m s-1 (sur les œufs de Leuciscus
aspius sur la rivière de Želivka en Réplique tchèque).
Avant que ces métriques soient utilisées pour la gestion il sera nécessaire de (1) tester
leurs pertinences biologiques et (2) de trouver des méthodes pour intégrer les résultats dans des
mesures écologiques significatives à l'échelle du tronçon. Cependant, les gestionnaires qui
adopteront la perspective des organismes (mobilité) telle que décrite ci-dessus auront l’avantage
de permettre une approche spatio-temporelle et de proposer des schémas de gestion affectant la
dynamique et la structure de la mosaïque d'habitats (Pringle et al. 1988, Pickett et al. 1997,
Hitchman 2017). De plus, une telle approche à l'échelle locale facilitera une comparaison
48
quantitative et transférable au sein et entre rivière (Pringle, 1988). Bien que les écologistes du
paysage aient, une longue expérience de la quantification des formes, des tailles, des
configurations, de la diversité, de la densité et de la connectivité des habitats, il manque un
ensemble de mesures d'évaluation pertinentes écologiquement pouvant être utilisées par les
gestionnaires. L'apprentissage collaboratif (Weber et al. 2017) entre la recherche et la pratique
sont nécessaires pour développer des approches de gestion qui tiendront compte de la
dynamique spatio-temporelle des habitats.
49
Figure I. 9. Résultats d'un modèle 2D et classification en cinq types d'habitats simples
(classes de vitesse du courant) pour un tronçon de la rivière Aare près d'Innertkirchen
en Suisse. (A) Distribution des conditions de vitesse au débit de base (5 m3 s-1), avec deux
surfaces d’habitat homogène de référence marquées par des contours blancs (« patch »). (B)
Distribution des habitats au débit de pointe (45 m3 s-1), le déplacement des habitats de
références précédent est illustré par les contours en pointillés blanc, et leurs nouvelles
positions par des contours pointillés blanc et noir. (C) Etapes intermédiaires entre (A) et (B).
Notez qu'avec l'augmentation du débit, le type d'habitat 1 se contracte ; tandis que le type
d'habitat 2 s’est déplacé vers les berges. Tiré de Batz et al. (Soumis).
50
Utiliser les modèles pour lier les connaissances sur la sélection du microhabitat
et les effets sur la population
Les modèles d’habitat
Les modèles d’habitat hydrauliques (Lamouroux et al. 2017) sont certainement les plus
utilisés pour lier les connaissances sur la sélection du microhabitat des organismes et la
perturbation attendue à l’échelle du tronçon. Les modèles d'habitats couplent un modèle
hydraulique du tronçon avec les préférences d’habitat connue d’un groupe taxonomique pour
fournir une valeur d'habitat potentielle (VH) à chaque microhabitat (compris entre 0 et 1 (bonne
qualité)). En sommant le produit des VH par la surface des microhabitats on obtient la « surface
pondérée utile » (SPU) du tronçon, interprétée comme une surface d’habitat favorable. Le
calcul de la SPU pour plusieurs conditions de débit permet d’obtenir une courbe de SPU. Cette
courbe permet d'estimer la réponse de la population selon le débit. Il s’agit d’une méthode très
utilisée pour aider à la gestion des débits réservés (débit minimal obligatoire) (Lamouroux et
al. 2015), mais jusque-là peu pertinent pour aider à la gestion des débits éclusées. En effet, les
modèles de sélection du microhabitat ne considéraient pas jusqu’alors la dynamique temporelle
des habitats. Les travaux de Capra et al (2017) et Judes et al (B) sont un premier pas vers le
développement de modèles de sélection du microhabitat dynamiques. De tels modèles
permettront de mieux estimer l’habitat disponible dans les rivières à éclusées et ainsi d’établir
des préconisations de gestion plus pertinentes.
Les modèles bioénergétiques
Les modèles bioénergétiques déterminent les préférences d’habitat en reliant les
caractéristiques de l'habitat à des corrélats de la fitness directe, tels que l’apport net énergétique
sur la base de connaissances fondamentales de la physiologie ou du comportement du taxon
cible (Hayes et al. 2007, Kearney & Porter, 2009). Cette approche utilise comme paramètres
d'entrée, les sorties d'un modèle hydraulique (et de température si disponible), les observations
sur le terrain des caractéristiques de la populations (p.ex. distribution des tailles et poids), la
densité de macroinvertébrés (généralement en dérive) et une connaissance fondamentale de la
physiologie ou du comportement du taxon cible (Kearney et al. 2009). De la même façon, que
les modèles d’habitat, les modèles bioénergétiques peuvent fournir une valeur d’habitat à
51
chaque type d’habitat sur une échelle de 0 à 1 reflétant l’apport énergétique net et ainsi obtenir
une « surface pondérée utile ».
Ce type de modèle pourrait être adapté pour être applicable aux rivières à éclusées. Pour
cela, il faudra lier l’apport énergétique net à l’hydraulique passée. Par exemple, l'assèchement
passé réduit l’apport énergétique des organismes se nourrissant de macroinvertébrés
benthiques. De plus, il faudrait aussi inclure l’influence des éclusées sur la dérive des
macroinvertébrés puisque la dérive augmente avec les hausses de débit éclusées (Schülting et
al. 2019).
Il s’agit d’une approche à développer car les modèles biogénétiques établissent un lien
plus direct entre la condition physique des organismes et l'habitat biotique (compétition interet intra-spécifique et le risque de prédation) et abiotique. Ils sont réputés pour être une approche
plus robuste et transférable pour prévoir les réponses biologiques aux changements d'habitat
que les modèles d’habitat (Guensch et al. 2001, Cuddington et al. 2013, Naman et al. 2019).
| 8,469
|
halshs-04030516-Cultures%20du%20sensible.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Culture d'un espace public "sensible". Engagement et résistances. JE Espaces publics, cultures, engagements, MSH Paris Nord, Dec 2018, Paris, France. ⟨halshs-04030516⟩
|
None
|
French
|
Spoken
| 3,874
| 6,362
|
Culture d’un espace public ”sensible”. Engagement et
résistances
Marie Kenza Bouhaddou
To cite this version:
Marie Kenza Bouhaddou. Culture d’un espace public ”sensible”. Engagement et résistances. JE
Espaces publics, cultures, engagements, MSH Paris Nord, Dec 2018, Paris, France. �halshs-04030516�
HAL Id: halshs-04030516
https://shs.hal.science/halshs-04030516
Submitted on 15 Mar 2023
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Depuis plus d’une quinzaine d’années, les aménageurs d’espaces publics ont de plus
en plus souvent recours à des projets artistiques qui font appel au vivant, au sensible,
des projets « verts » ou environnementaux, notamment lorsqu’il s’agit d’aménager des
lieux « sensibles » marqués par la transformation urbaine (quartiers d’habitat social,
en renouvellement urbain ou quartiers dits « politique de la ville »).
Le sensible, vert ou vivant sont pris comme des outils de pacification politique et
sociale, et ce, alors que le rapport à notre environnement est tout sauf un rapport de
consensus, c’est au contraire un rapport négocié qui produit du dissensus (Rancière,
2000). Si le vert produit du consensus, le sensible compris dans la construction
collective d’un commun produit, lui, un dissensus, nécessaire pour faire du citoyen un
acteur. Sensible contient lui deux sens possibles, le premier, celui de délicat et apte à
réagir, mais aussi de facto celui que l’on trouve dans l’expression « quartiers sensibles
», à savoir, d’explosif, marginal et problématique. Le sensible est donc lui aussi traversé
de tensions qui peu compatibles avec l’idée d’une pacification sociale et urbaine ou
d’une normalisation.
Dans un contexte de fortes mutations urbaines et sociales, l’art dit « partagé » est non
seulement vu comme un facteur de transformation de l’espace, mais comme ayant un
rôle social et politique fort. On lui attribue alors de nombreuses vertus. Il rendrait
possible l’acceptation par les habitants de ces quartiers des transformations urbaines
et permettrait qu’ils se saisissent eux-mêmes de ces questions en devenant acteurs du
changement. Il permettrait de faire participer les habitants, non seulement à la
transformation de leur quartier, mais à la vie citoyenne. Il serait une aide à la création
et au maintien du lien social et même une clé pour le vivre ensemble. Enfin, il faciliterait
la normalisation de certains usages de l’espace public (Guinard, 2013), à travers des
pratiques dites citoyennes.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Cet art, contextuel, en relations, participatif (Ardenne, 2002 ; Bourriaud, 2001 ; Lextrait
et Kahn, 2005 ; Zask, 2011) ouvre à des pratiques sociales partagées, permet non
seulement de faire un récit de la ville qui se transforme, en rendant visible la lente
transformation de la ville, mais donne à voir la complexité des pratiques, des usages,
et enfin, il fait basculer les rapports de forces des acteurs et des pouvoirs en présence
dans le projet urbain, et en engageant les acteurs, il donnerait du pouvoir d’agir à des
acteurs qui en étaient jusque-là dépourvus.
Avant de présenter plus avant les points que je souhaiterai aborder durant cette
présentation, je voudrais dire quelques mots sur une posture que j’ai expérimentée à
travers une observation participante et une recherche-création. Dans ma thèse, je la
qualifie d’« entre-deux ». Mon objet de recherche étant les relations entre logement
social et des pratiques artistiques qui font participer les habitants, il me semblait
pertinent de participer moi-même pour comprendre ce que le chercheur faisait au
terrain dans ses dimensions artistique, sociales et urbaines ? Et, ce que le terrain faisait
au chercheur. En d’autres termes, en quoi ma posture de recherche était créolisée par
les pratiques des autres acteurs et en quoi leurs pratiques bousculaient la mienne.
Aussi je me suis fortement intéressée aux situations dans lesquelles « les coutures
craquent », qu’il s’agisse d’interactions entre acteurs, de ce que ces interactions
produisent ou des modalités de projet.
Je m’appuierai sur l’un de mes terrains de thèse, Prenez Racines ! une expérimentation
artistique dans l’espace public réalisée dans le 8e arrondissement de Lyon.
Entre 2010 et 2015, j’ai participé et observé, en tant que chercheuse, participante mais
aussi parfois en tant que créatrice. Depuis l’année dernière, je collabore avec la MJC,
qui a initié le projet à un projet culturel participatif d’aménagement d’un espace public
dans la continuité de cette première expérience.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Prenez Racines ! est une expérimentation artistique démarrée en 2009 sous
l’impulsion conjointe de l’artiste Thierry Boutonnier et de la MJC Laennec Mermoz,
dans le quartier Mermoz Nord, dans le 8e arrondissement de Lyon. Le contexte du
projet est une importante opération de renouvellement urbain, durant laquelle, les
habitants du quartier seront temporairement ou définitivement relogés et le quartier
entièrement reconfiguré. Il s’agit d’une pépinière urbaine sur l’une de friche laissée
vacante par le projet d’aménagement urbain, réalisée avec 38 parrains et marraines.
Les arbres de la pépinière sont parrainés, plantés, soignés par ces habitants entre 2009
et aujourd'hui, puis transplantés en 2015 dans le quartier rénové.
Parrains et marraines jardinant dans la pépinière de Prenez Racines ! été 2012 © MJC Laennec Mermoz
Le projet artistique Prenez Racines ! s’inscrit dans le cadre du renouvellement urbain
et plus précisément du CUCS dans la thématique « art et renouvellement urbain ». La
démarche « d’accompagnement artistique doit permettre la participation des
habitants au programme d’aménagement des espaces extérieurs » et les mobiliser
autour du projet urbain en favorisant la composante sociale et environnementale.
Le projet porte en effet sur l’enjeu de l’attachement (la racine de l’arbre et celles des
hommes) au quartier à travers l’enracinement. Il vise à conforter, voire à créer des
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
liens sociaux mis en péril par la rénovation urbaine et à favoriser un sentiment de
continuité à travers la plantation, l’entretien des arbres et l’aménagement de la
pépinière.
L’artiste propose en effet aux parrains et marraines des arbres, plus qu’un simple acte
de jardinage, de s’impliquer dans le soin d’un arbre, les mettant ainsi face à une
réflexion plus profonde sur l’écologie, leur relation à l’histoire (la leur, la grande et la
petite), la mobilité et l’action.
Le projet est pensé comme une « sculpture sociale » pour accompagner les habitants
du quartier durant sa transformation. Il s’agit surtout d’une aventure sociale et
humaine grâce à laquelle les habitants sont supposés retrouver du pouvoir d’agir dans
une opération de renouvellement urbain.
Partant du constat que chacun des termes qui constituent le titre de cette journée
d’étude a une place particulière dans Prenez Racines ! je consacrerai un premier point
à l’espace public sensible, un deuxième point traitera de la dimension de duplication
de ce type de projet qui pourrait conduire à une monoculture du sensible, enfin, un
dernier point abordera les relations au quotidien entre engagement(s), résistance(s)
et nouvelles figures de légitimité et de pouvoir.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
1/ Espace public sensibles : cultiver le sensible
Le sensible est ici compris dans sa dimension large de vivant, tant dans un rapport
esthétique que dans un rapport à la nature dans le cadre d’un cas qui mêle aussi bien
l’art au vert.
Par sensible, j’entends plusieurs choses. Cela peut être un objet de recherche dans
lequel l’affect entre en compte et qui rend l’observateur sensible. Je peux utiliser
comme Vulbeau (2007) le terme pour décrire des lieux et des points « chauds ». Le
sensible est aussi une méthode de recherche et une approche dans laquelle se mêlent
les sens et la perception d’un point chaud, une conscience émotionnelle et une
réceptivité. Pour Pierre Sansot, il s’agit d’un « résidu signifiant » (1986, 35) qui permet
à l’observateur de rendre compte de concepts sensibles pour rendre compte des
vulnérabilités sociales, de l’identité et de l’image des lieux en déshérence.
Il s’agit d’une lecture du culturel à travers le prisme du vert qui permet d’aborder des
notions à la fois spatiales, temporelles et politiques, comme celles de la transformation
urbaine par exemple.
Cultiver le sensible, c’est aussi bien planter que valoriser et faire grandir un certain
rapport au sensible. Nous verrons que ce rapport est le plus souvent voulu et pensé
comme un outil de reconquête d’une dimension citoyenne, un outil supposé venir au
secours de territoires dans lesquels les politiques publiques ont échoué.
Le sensible permet-il de travailler une image de la ville qui se veut plurielle, partagée,
solidaire, désirable, habitable, qu’en est-il réellement ?
Comment ce sensible est-il travaillé ? Qu’est ce qui le traverse ? De quelle manière estil instrumentalisé et par qui, et pour montrer quoi de la ville ?
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Dans le cadre de Prenez Racines ! la question de faire advenir l’espace public dans un
lieu « sensible » et dans des modalités qui ont trait au sensible (notamment à travers
l’usage de l’art et du vivant) s’est posée suivant plusieurs points.
Il s’agissait d’expérimenter une manière d’aménager différemment l’espace public,
tant dans les enjeux mis en avant, dans les modalités de mise en œuvre que dans les
interactions entre les acteurs. En effet, le projet a été voulu par et pour les habitants
qui ont eux-mêmes contribué à sa mise en œuvre, soit en contribuant à des chantiers
de réalisation de mobilier, d’aménagement ou de plantations, soit en participant à la
vie quotidienne de la pépinière puis du verger aujourd'hui. Par ailleurs, les modalités
de mise en œuvre mettent non seulement en avant une participation, à travers un
« faire » chemin-faisant au sens où l’entend François Jullien (un processus réflexif actif)
des habitants, de l’artiste et de la médiatrice de la MJC, mais elles questionnent le
projet d’aménagement lui-même. Par exemple, la temporalité du vivant (des arbres)
s’impose sur toute autre forme de temporalité et l’artiste a réussi à faire primer cette
nouvelle temporalité sur celle annuelle des appels à projets qui financent
l’expérimentation. Enfin, les acteurs pris dans ce rapport au sensible voient leurs
relations se modifier. Ils accordent alors plus de place à l’affect, à l’entraide, aux
pratiques solidaires et à la confiance et ce, pour des raisons financières en partie car le
projet dispose d’un financement modeste, mais aussi pour des raisons politiques, c’est
dans ce basculement des relations de pouvoir vers des relations d’affect, avec des
acteurs qui pratiquent le projet chemin-faisant, que réside le terreau de
développement du pouvoir d’agir.
Les parrains aidés de l’artiste ont expérimenté le principe d’une do-cratie pour
reprendre la terminologie de Michel Lallemant (2015). Cette notion s’appuie sur des
pratiques testées par les hackers et autres bidouilleurs dans les fab labs californiens
qui valorisent le bricolage, la ruse et la négociation (De Certeau, 1990). Ces pratiques
non professionnelles d’entraide et de solidarité très éloignées des relations
traditionnelles de pouvoir sont fondées sur des relations d’affect.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Cela permet de faire émerger le modèle du commun ou de l’imperium pour reprendre
l’expression de Frédéric Lordon (2015). Ce dernier permet de se détacher de la figure
institutionnelle d’autorité et de développer une puissance sociale, qui autorise le
rassemblement et le « faire-commun ». Ici le « faire » est relatif au fait que dans ce
projet spécifique, des habitants, un artiste, et une structure socioculturelle ont à
charge (et à cœur) d’une part, de fabriquer un espace public et d’autre part, de le gérer
et de l’animer (dans un temps long).
C’est dans ce faire que réside l’action du pouvoir d’agir.
L’artiste, la médiatrice et les parrains ont construit un « faire commun », à partir de ces
relations affectives, ancrées dans le quotidien et dans le bricolage qui ont permis de
faire basculer les rapports de force traditionnels. Nous avons désormais affaire à de
nouveaux types de rapports dans lesquels les acteurs résistent davantage et sont plus
émancipés, à travers l’affect qui est à la fois un perturbateur du bloc institutionnel et
un facilitateur (qui permet de faire ce que les acteurs de l’aménagement ne savent pas
bien faire ou n’a pas trop envie de faire) (Nicolas Le Strat, 2015).
Une fois le « faire » installé, les conditions du commun sont réunies et le pouvoir d’agir
peut alors émerger. Comment faire cependant pour faire tenir l’espace public dans le
temps et avec les gens ?
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
2/ Une mono culture du sensible ?
La société subit un verdissement au fur et à mesure qu’elle se sensibilise aux questions
environnementales. Les lieux de nature changent, avec un certain renouvellement des
formes, comme celui des jardins, qui passe d’un espace domestique privé à un espace
public partagé, l’aménagement des berges des fleuves ou encore le fleurissement
sauvage des trottoirs comme une signature militante. Ce qui apparait c’est que l’usage
du vert et du sensible semble aller croissant.
La pluralité des acceptions du terme « culture » montre qu’il s’agit d’un fourre-tout
tant lorsqu’il est compris dans sa dimension culturelle et agriculturelle. Ici le terme
culture n’est pas du lié aux théories sur la ville créative, il est pris dans sa une triple
acception. La première est agro culturelle, elle concerne ce qui est cultivé, vert, planté,
le jardin. La deuxième est culturelle, dans le sens d’ayant trait à la culture, et à l’art.
Enfin, la dernière, dans sa forme au pluriel contient l’idée d’interculturalité.
Cultiver la ville, c’est cultiver une certaine idée de ce qui est urbain, de ce qu’est
l’urbain et de ce qui ne l’est pas (dans sa dimension inclusive / exclusive, dans ses
relations entre centre et marges). C’est rendre la ville verte, la planter et la penser en
termes d’espaces plantés, dans son rapport avec son environnement, le vivant, le
sensible.
Mais la culture en ville, c’est aussi un questionnement sur la place de la culture dans la
ville, celle de la culture savante mais aussi la culture rurale, cultivée, jardinée.
Comment la ville se sert-elle de la culture urbaine, de la culture de l’urbain et de
l’urbain cultivé pour dire quelque chose qui est de l’ordre d’un rapport à
l’environnement, d’un rapport politique de normalisation et d’un rapport à l’urbain
pacifié ? Comment cette culture urbaine est érigée en outil pour reconquérir une
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
représentation de la citoyenneté perdue (ou qui n’a jamais existé) et forger une
nouvelle citoyenneté, venir au secours de l’idée bafouée de la citoyenneté, venir au
secours, boite à outils magique, prêt à aménager ? Comment cette culture urbaine,
devient un territoire à la fois de prospection pour le chercheur, mais aussi des
territoires ?
Notre hypothèse est que la culture du sensible est un moyen de normaliser des
territoires, de les resocialiser et de les re-politiser d’une manière que le social, le
socioculturelle ou le politique compris dans leur forme traditionnelle ne peuvent plus
faire.
Si le vert, le sensible contribuent à faire advenir une culture, des cultures du commun,
ils sont aussi une façon de faire du semblable à partir de l’altérité, en d’autres termes,
de normaliser. Le risque est que l’on produise une monoculture du sensible en quelque
sorte. Dans le cas de Prenez Racines ! et dans une certaine mesure j’ai pu noter une
certaine normalisation spatiale et des usages. La normalisation spatiale tient pour
beaucoup à l’usage de matériaux issus du recyclage et on assiste désormais à la
production d’une esthétique qui reprend les couleurs, graphismes, lettrages issus du
chantier par exemple. La normalisation des usages, tient, elle, à l’injonction de
l’inclusion qui peut produire des tensions dans le quotidien de cet espace autogéré
d’apprentissage du commun (Nicolas Le Strat, 2015) notamment entre les habitants
qui l’entretiennent et ceux qui ont contribué à son aménagement.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
3/ Engagement(s) au quotidien, résistances et nouvelles figures de légitimité et de
pouvoir
Vu la nature fortement sociale et politique du projet, l’engagement est étroitement
corrélé à l’action et au développement du pouvoir d’agir des habitants.
Il s’agit ici d’un engagement au quotidien, inscrit dans le faire, chemin-faisant et qui
échappe aux modalités politiciennes ou civiles d’engagement. Il se développe dans des
espaces et des temps informels et en dehors de dispositifs institués supposés le faire
émerger.
Pour l’artiste, la médiatrice socioculturelle de la MJC et pour les parrains des arbres, il
s’agit d’un engagement non seulement esthétique mais social et politique. En fait, ils
sont non seulement co-créateurs de l’expérimentation artistiques, leur engagement
est donc matériel et physique en quelque sorte, mais il est de plus politique et social,
dans le sens où il permet le développement d’actions.
C’est aussi un engagement dans le sens où le projet donne lieu des pratiques
d’aménagement nouvelles et hors des « juridictions » initiales qui puisqu’elles
réinterrogent les modalités, les modes de faire, les rôles et les figures vont venir
bousculer la manière de s’engager.
Enfin, la pratique du jardin est un engagement du corps dans l’espace, le jardinage dans
l’espace public est alors doublement une manière de se tenir debout politiquement et
de résister (à la transformation, à l’injonction participative dans les dispositifs institués
etc.).
Prenez Racines! permet de résister à l’injonction de mouvement induite par la
transformation urbaine. Cette résistance est visible d’abord dans l’occupation d’un
espace qui à l’origine du projet d’aménagement devait être attribué à l’immobilier
privé. Elle est aussi visible dans la production et l’usage d’un vocabulaire commun et
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
politique transmis par l’artiste, qui pour reprendre les explications de Rastier, permet
de résister contre l’idéologie managériale (Rastier). Après le commun du faire, il s’agit
du commun de la langue qui rend possible la transmission du savoir, des compétences
mais surtout des valeurs.
J’ai moi aussi pu tester ce travail sur les mots à la fois avec les parrains pour vérifier s’il
existait bien un socle commun de mot construit et partagé par tous, et avec l’artiste
dans une série de longs entretiens semi-directifs où nous avons travaillé à définir
ensemble des compréhensions communes. A cette série d’entretiens une double
conséquence, d’abord, une meilleure compréhension de ce que l’un ou l’autre voulait
dire, l’usage d’un socle commun de communication et d’autre part, l’installation d’une
proximité confiante entre l’artiste et moi.
Cependant on voit aussi apparaitre des résistances qui forment des limites au projet.
En premier lieu, la normalisation de l’espace public qui conduit d’une part à l’ériger en
modèle transposable (y compris dans ce qu’il est supposé produire comme
interactions) et l’injonction à inclure tout le monde. Dans ce cas qui nous concerne,
cette volonté d’inclusion est un idéal mais dans les faits de nombreuses tensions
existent entre les parrains des arbres et les jeunes du quartier qui ont contribué à
l’aménagement de l’espace public. Les parrains, du fait de leur ancienneté, de leur
position spéciale (et rare) et de leur engagement au quotidien se sentent plus légitimes
à occuper l’espace et à en définir les règles d’usage. Plusieurs fois, des altercations avec
les jeunes gens qui réclament eux aussi leur part de l’espace public, ont eu lieu.
L’inclusion tout comme l’appropriation sont des utopies, à l’échelle micro locale, on
observe des ajustements permanents qui traduisent des jeux de pouvoir discrets mais
bien présents.
Cette normalisation s’est matérialisée dans la reprise du travail de Boutonnier par la
Biennale d’Art Contemporain 2017. En effet, dans la continuité de Prenez Racines!, un
parrainage de rosiers a été proposé par l’artiste dans le but de produire une eau de
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
rose locale pour accueillir les nouveaux arrivants et invités comme cela se fait dans
certains pays du pourtour méditerranéen. Eau de rose a vu le jour en 2015 et son
caractère léger a séduit les organisateurs de la Biennale qui ont alors demandé à
l’artiste de dupliquer l’expérience sur plusieurs territoires fort différents de la
Métropole.
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018
Références bibliographiques
Auclair E. 2007, « La culture et les quartiers populaires », Diversité n° 148, p.53, 3/2007
Auclair E. 2011, « Revenir vers les habitants, revenir sur les territoires. L’articulation
entre culture et développement durable dans les projets de développement local »,
Développement durable et territoires, Vol. 2, n° 2 | Mai 2011 : Culture et
développement durable : vers quel ordre social?
Blanc N. 2010, « Esthétiques de la nature et place de l'environnement en sciences
sociales » in Philosophie de l'environnement et milieux urbains, La Découverte
De Certeau, M. 1990. L’invention du quotidien. Vol. 1. Arts de faire, Gallimard
Fleury F., Prévot, A-C. 2017. Le souci de la nature - Apprendre, inventer, gouverner,
CNRS
Lallement M. 2015, L’âge du faire. Hacking, travail, anarchie, Seuil
Lordon, F. 2013. La société des affects, Seuil
Lordon, F. 2015. L’imperium, Structures et affects des corps politiques, La Fabrique
Nicolas Le Strat, P. 2015. Le travail du commun, Editions Le Commun
Rancière, J. 2000. Le partage du sensible. Esthétique et politique, Éditions La fabrique
Sharp, J., Pollock,V., Paddison, R. 2005, « Just art for a just city: Public art and social
inclusion in urban regeneration», Urban Studies, 42, pp. 1001-1023.
Tornaghi C. (2014), « Critical geography of urban agriculture », Progress in Human
Geography, vol. 38, n° 4, p. 551-567
Journée d’études « Espaces publics, cultures, engagements » / Marie-Kenza Bouhaddou / Culture
d'un espace public "sensible". Engagement et résistances / MSH Paris Nord / 21 décembre 2018.
| 32,110
|
8282bee78e4ae4c521de5327f7b9caf7_11
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,002
|
expe?rience mystique et les symboles chez les primitifs
|
None
|
French
|
Spoken
| 6,631
| 11,040
|
verse sa médecine sur le sentier, et il lui parle, lui donnant le nom de l'homme qu'il
veut faire mourir. Après quoi, il s'en va et rentre chez lui. Si nombreux que soient les
gens qui passent sur le sentier, la médecine ne leur fait rien. Seul l'homme dont le
sorcier lui a donné le nom, quand il marchera sur elle, sera attaqué par elle 3... »
L'effet, mortel ou non, du poison, dépend donc uniquement des instructions que le
« docteur » lui donne. M. Evans-Pritchard protestait un jour contre l'usage de nourrir
des gens avec les poulets qui avaient succombé au poison. « Quel mal cela peut-il
faire, lui répondit-on, puisqu'on ne lui a rien prescrit ? » - Et de même : « Je demandai
un jour à un Zande si l'on ne pourrait pas introduire une poignée de poison dans la
bière bue par un homme, et ainsi se défaire aisément d'un ennemi. « Cela ne le tuerait
pas, répondit-il, à « moins que vous n'ayez parlé au poison en ce sens. »
M. Evans-Pritchard remarque avec raison qu'il s'agit ici d'une action mystique.
« Il est certain que les Azande ne regardent pas la réaction des poulets au benge, ni
l'action du benge sur les poulets, comme un processus naturel, c'est-à-dire conditionné
uniquement par des causes physiques... En fait, on peut se demander s'ils ont une
notion, même approchée, de ce que nous entendons quand nous parlons de causes
physiques 4. »
Au Mayombe, « le nganga place des charmes magiques, des plantes, etc., dans la
terre, à un croisement de chemins, afin d'empoisonner quelqu'un. La personne à qui il
en veut, et pour qui il a enterré le poison, survient, marche dessus et tombe
malade 5 ». Les autres passants restent indemnes. - Dans une affaire de sorcellerie, en
Côte d'Ivoire, jugée en août 1921, l'accusé (un « féticheur ») explique lui-même
comment il a procédé. Il a fourni le poison. « C'est un poison obtenu en brûlant les
feuilles de plusieurs arbres... On l'emploie de .deux façons : soit en le déposant sur le
passage de celui qu'on veut tuer, soit en en frottant l'abdomen de la femme avec qui il
1
2
3
4
5
Mgr Lagae. Les Azande ou Niam-Niams, p. 141.
E. E. Evans-Pritchard. Witchcraft, oracles and magic among the Azande, p. 208.
Ibid., p. 297.
Ibid., p. 315.
L. Bittremieux. Mayombsch Idioticon, p. 594.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
131
a des relations. Du reste, ce poison ne tue que celui dont on évoque le nom en le
déposant 1. »
Des faits tout semblables ont été constatés ailleurs qu'en Afrique. Je n'en citerai
qu'un. Chez les Ao Nagas, « si quelqu'un que l'on ne connaît pas a méchamment mis
le feu aux greniers, le prêtre du village fera tomber dans chacune des sources des
grains ainsi brûlés, en priant que l'incendiaire meure s'il boit de cette eau. Ou bien un
homme dont on a tué le buffle mettra un petit morceau de sa chair dans chaque
source, en prononçant la même prière, après avoir préalablement prévenu les anciens
de son intention 2 ».
Ces primitifs connaissent donc, au moins en gros, les effets du poison sur qui le
prend. Mais ils croient possible de les suspendre à volonté, c'est-à-dire de faire en
sorte que, dûment stylé, le poison n'agisse que sur une seule des personnes qui le
prennent, sur celle qui lui aura été expressément désignée. Ce mélange de déterminisme et de choix nous semble envelopper une contradiction. Nous le rejetons comme
d'instinct. Aux yeux des primitifs, il ne comporte rien de choquant. C'est là une conséquence immédiate de l'orientation mystique de leur esprit. Comme, pour eux, l'expérience mystique n'a pas moins de valeur que l'autre, la surnature, quoique sentie comme distincte de la nature, n'en est pas séparée et ne constitue pas un monde à part.
Réciproquement, la nature n'exclut pas la surnature. Bref, rien n'est rejeté d'avance
comme impossible ou contradictoire. C'est là l'un des points où éclate le contraste
entre la mentalité dite primitive et celle qui se sent astreinte à toujours se conformer
aux exigences de la logique, comme aux données de l'expérience contrôlée. Par suite,
tandis que notre pratique, nos techniques, se fondent sur la conception, rationnelle
d'un monde intellectualisé, celles des primitifs reflètent l'impression que fait sur leur
esprit la réalité dont ils se sentent entourés. Elle comprend à la fois le monde visible
et l'invisible. La régularité des séquences des phénomènes n'y exclut pas l'intervention
de puissances surnaturelles, qui peuvent à tout instant la modifier ou la démentir.
Ainsi s'explique que, dans la pratique, les primitifs recourent si souvent à des
actions symboliques si évidemment vaines à nos yeux que nous nous demandons
comment ils peuvent croire à leur efficacité. Il nous est extrêmement difficile, pour ne
pas dire impossible, de nous rendre compte de ce qui est dans leur esprit, lorsque, par
exemple, ils pensent qu'en enterrant dans leur plantation des pierres de la grosseur et
de la rotondité des tubercules qu'ils désirent récolter, elles « enseigneront » (selon
l'expression rapportée par M. Landtman) aux tubercules à devenir en effet gros et
ronds à souhait. Déjà Codrington avait signalé cette coutume aux îles Banks. « Jamais
on ne plantait un jardin sans enterrer des pierres dans le sol pour assurer la récolte. Un
morceau de corail usé par l'eau sur la plage ressemble souvent de façon étonnante à
un fruit de l'arbre à pain. L'indigène qui en trouvait un en éprouvait la vertu en le
plaçant à la racine d'un de ses arbres, et si la récolte était bonne, c'était la preuve que
la pierre était en relation avec un esprit favorable à l'arbre à pain (interprétation
animiste propre à Codrington). L'heureux possesseur de cette pierre consentait alors,
moyennant une rémunération, à prendre des pierres moins nettement caractérisées
appartenant à d'autres, et à les laisser auprès de la sienne jusqu'à ce que le mana de
celle-ci se communiquât à elles 3. »
1
2
3
Dossier communiqué par M. l'administrateur en chef Prouteaux.
J. P. Mills. The Ao Nagas, p. 242.
R. H. Codrington. The Melanesians, p. 183. (1891)
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
132
En Nouvelle-Guinée anglaise, et dans l'ancienne Nouvelle-Guinée allemande, on
a souvent constaté la même coutume. A l'île Kiwai, les indigènes enterrent dans les
plantations des pierres qui « enseignent » aux tubercules à grossir comme il convient.
Chez les Bakaua, au moment des semailles, « après avoir invoqué les ancêtres et
sollicité leur assistance, le maître d'un champ y enterre les pierres magiques. Il les a
reçues en héritage de ses pères. Ce sont des reproductions en pierre des tubercules de
taro. Après la récolte, on les déterre, et on les place dans la nouvelle plantation... La
pierre y demeure jusqu'à la récolte, et doit avoir pour effet de rendre les fruits gros et
lourds 1 ». Dans la même tribu, on a vu la malveillance recourir à une action
symbolique de ce genre pour empêcher les tubercules de venir à bien. Elle atteint son
but en provoquant une participation par contact. Un magicien veut ruiner la récolte de
son voisin. « Il emploie une pierre qui ressemble à un fruit pourri. Elle sera cause que
la plante portera beaucoup de feuilles, mais peu ou pas de fruits. Il enterre une pierre
ronde munie d'un long manche ; alors la plante aura une tige haute, mais le fruit sera
minuscule... ou une grosse pierre avec deux petits trous pareils à ceux que creusent
les insectes qui rongent les vrais tubercules, etc. 2. » - A Guadalcanal, « plusieurs
personnes possèdent des pierres dont la forme ressemble à celle des ignames ou des
tubercules de taro ; elles les enterrent dans leurs jardins afin de faire croître les
récoltes. Certaines de ces pierres, dit-on, sont des morceaux de vi'ona (esprits de
serpents) pétrifiés. On croit que les autres ont été « enchantées » il y a très longtemps
par de puissants prêtres de vi'ona dont la magie est aujourd'hui perdue 3 ». - Enfin, M.
Leenhardt nous dit aussi qu'en Nouvelle-Calédonie il a vu employer des pierres a cet
usage. « On les rend le plus possible semblables à ce qu'elles doivent aider à
produire... Les pierres-ignames ont rarement la forme parfaite de l'igname. Elles sont
usées sur des roches afin de présenter une pointe pareille à l'extrémité où germe le
tubercule...
« Mais la valeur d'une pierre magique dépend moins de la fidélité dans la
représentation que de ses origines, de la façon dont elle a été révélée, et de la tradition
dont elle peut avoir le bénéfice 4. »
Ces quelques faits, auxquels il serait facile d'en joindre beaucoup d'autres
semblables, illustrent le processus mental qui aboutit à la « participation dirigée ».
Les pierres-symboles, enterrées dans la plantation, communiqueront aux tubercules
leurs qualités de grosseur et de rotondité. Comment cette participation se réalise-t-elle
? L'indigène ne se le demande pas. A coup sûr, il ne la conçoit pas comme résultant
d'un enchaînement de causes et d'effets. Il ne s'agit pas pour lui d'une causalité physique, dont l'idée reste toujours vague dans son esprit, si même il la possède.
Or, c'est précisément cette attitude mentale, indifférente aux conditions physiques,
qui lui permet de regarder la participation comme limitée à ce qu'il désire qu'elle soit.
Qu'il serait surpris, choqué, épouvanté, si ses tubercules, une fois récoltés, se révélaient aussi durs que les pierres, impropres comme elles à la cuisson, incapables
comme elles de servir d'aliments ? Lorsqu'il enterre ses pierres, il compte qu'une
participation va s'établir entre elles et les taro. Mais il ne doute pas qu'elle va leur
conférer les qualités qu'il désire pour eux, et celles-là seulement. La participation que
son action symbolique réalise est ainsi limitée et dirigée.
1
2
3
4
R. Neuhauss. Deutsch Neu-Guinea, Ill, pp. 434-435.
Ibid., p. 457, cité par Sir James Frazer. Aftermath, p. 47.
H. Jan Hogbin. Mana. Oceania, VI, p. 1256. (1936)
M. Leenhardt, Notes d'ethnologie néo-calédonienne, p. 244.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
133
Sur quoi se fonde sa confiance en cette action symbolique si naïvement circonscrite ? - D'abord, si singulier que cela puisse paraître, sur l'expérience. Celle-ci, comme on l'a vu plus haut, se sépare difficilement chez lui des croyances traditionnelles,
Il a toujours entendu dire que, si les tubercules grossissent et s'arrondissent, c'est
parce qu'ils croissent au voisinage des pierres sacrées. Il voit qu'en effet, chaque
année, à ce contact, ils mûrissent et prospèrent. Parfois, il est vrai, ils restent minces
et malingres. Mais c'est alors qu'une autre influence plus forte, funeste celle-là, s'est
exercée sur eux. Un tabou important a été violé ; un voisin jaloux a jeté le mauvais
oeil sur la plantation... Jamais les « docteurs » ne seront en peine de donner une
raison satisfaisante pour expliquer comment, malgré la présence des pierres, la récolte
ne pouvait être que mauvaise.
En second lieu - et c'est ici la considération décisive - l'action symbolique qui vise
à réaliser une participation limitée procède de la même attitude mentale que nous
avons constatée chez les primitifs à propos de la causalité dirigée, c'est-à-dire du
mélange, dans leur esprit, de la fluidité de la surnature avec l'ordre régulier de la
nature. Le poison versé dans la bière ne tue, de tous les buveurs, que la victime à lui
désignée. De même, les pierres enterrées dans la plantation ne communiqueront aux
tubercules que leur grosseur et leur rotondité, à l'exclusion de toute autre qualité. De
la sorte, l'action symbolique atteint son but dans le monde de l'expérience physique,
sans que l'on se soit préoccupé de savoir si elle est compatible avec ses lois. Ce n'est
pas d'elles seules qu'il dépend que les effets se produisent ou non.
L'homme qui agit sur la nature par le moyen de symboles, c'est-à-dire de participations dirigées, est aussi l'homme qui croit à la valeur de l'expérience mystique et
aux interventions des puissances surnaturelles dans le cours des événements. A
l'expérience mystique des primitifs se rattachent à la fois la nature de leurs symboles
et l'usage qu'ils en font dans la pratique. Le tout ensemble a sa raison dernière dans
l'orientation de leur esprit, qui se manifeste par la catégorie affective du surnaturel.
*
**
Réaliser une certaine participation, à l'exclusion de toute autre, par le moyen d'un
symbole, véhicule ou représentant de la qualité que l'on veut communiquer, équivaut
à un transfert de cette qualité. En d'autres termes, établir cette participation, c'est
produire le semblable par le semblable. Similia similibus, nous l'avons vu plus haut,
est un schème d'action d'un usage constant chez les primitifs, en particulier dans leur
magie sympathique. La femme féconde, par exemple, est un symbole de la fécondité.
Sa présence, son contact feront participer le jardin ou la plantation à cette qualité.
Pour la même raison, on ne les laissera pas cultiver par une femme stérile. En
Ouganda, « une femme stérile, en général, est renvoyée par son mari, parce qu'elle
empêche son jardin de donner des fruits 1 ». - « Une femme stérile porte préjudice à
un jardin ; il ne donnera pas de fruits, tandis que le travail d'une femme féconde en
produira en abondance 2. » Chez les Bhantus (tribu criminelle de l'Inde), « une femme
1
2
J. Roscoe. Manners and customs of the Baganda. Journal of the royal anthropological Institute,
XXXIV, p. 38.
Ibid., p. 56.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
134
stérile est toujours considérée comme exerçant une mauvaise influence 1 ». - A
Bornéo, dans les tribus païennes, « les femmes jouent le rôle principal dans les
cérémonies et les travaux relatifs à la culture du paddy. On ne fait appel aux hommes
que pour débroussailler et pour aider à quelques opérations finales. Ce sont les
femmes qui choisissent et conservent les semences... Il semble que l'on sente en elles
une affinité naturelle avec les grains, dont elles disent qu'ils sont en état de grossesse.
Parfois les femmes vont passer la nuit dans les champs de paddy, au temps où il
pousse. Leur idée est probablement d'augmenter leur propre fertilité ou celle du
paddy; mais elles sont très réticentes là-dessus 2 ». - A Nias, « un palmier à vin planté
par une femme donne plus de sève que s'il l'a été par un homme. Que la personne qui
plante ait une influence sur la prospérité du végétal ressort aussi de ce fait que l'insulaire de Nias ne plante son riz qu'à un moment où il est entièrement rassasié, parce
qu'en cas contraire, croit-il, les épis resteraient vides... Les Bataks ont une croyance
semblable. Ils font semer leur poivre par des personnes particulièrement violentes et
coléreuses, afin que leur poivre devienne aussi brûlant et mordant 3 ». - En NouvelleCalédonie, « on apporte dans les plantations d'ignames des dents de vieilles femmes;
c'est un charme pour obtenir une bonne récolte et, dans la même intention, on y place
leurs crânes sur des perches 4 ».
Mêmes actions symboliques en Afrique. Chez les Ewe du Togo, « une femme
enceinte porte sur la tête un petit sac. Il contient de menus morceaux d'ignames, de
cassade, de maïs, de bananes, etc., et aussi de la pierre dont les femmes se servent
pour moudre le maïs... Tous ces fruits sont là pour rappeler que, de même que la
femme porte son fruit, ce qu'elle a cultivé dans son champ doit aussi donner le sien.
Au Togo, c'est à elle que le principal du travail des plantations incombe 5 ».
Pour ne prendre qu'un exemple en Amérique du Sud, chez les Jibaros, « on admet
qu'il existe une connexion étroite entre la femme et les produits de la terre qu'elle
cultive, précisément comme on croit qu'elle exerce une influence particulière sur les
animaux domestiques dont elle a le soin. Cela est vrai surtout des femmes mariées.
Quand un Jibaro se marie, et qu'il va fonder un ménage, cultiver de nouvelles plantations, élever des porcs, de la volaille, des chiens de chasse, il commence par célébrer une fête spéciale pour sa jeune femme ; cette fête, d'une façon mystérieuse, lui
procure le pouvoir de satisfaire à ses nouvelles obligations... Si l'on ne connaît pas la
signification générale de cette fête, il est impossible de bien comprendre les idées des
Jibaros touchant l'agriculture 6 ». « De même que la divinité Terre, chez les Jibaros,
est regardée comme une femme, on imagine toujours que les femmes exercent une
influence spéciale, mystérieuse, sur la croissance des plantes cultivées 7. » Nous
avons, il est vrai, un témoignage contraire d'un excellent observateur. « Chez les
Ashluslays, chez les Chorotis, ce sont les hommes seuls qui cultivent les champs. Les
semailles et les récoltes sont faites conjointement par les hommes et les femmes 8. »
1
2
3
4
5
6
7
8
Census of India, 1931, I (III, b), p. 41.
Hose and Mac DougaIl. Pagan tribes of Borneo, I, p. 111.
Kleiweg de Zwaan. Die Heilkunde der Niasser, p. 171. (1913)
G. Turner. 19 years in Polynesia, p. 425.
C. Spiess. Zum Kultus und Zauberglauben der Evheer. Bässler-Archiv, I, p. 225.
R. Karsten. Contributions to the sociology of the Indian tribes of Ecuador, p. 11.
Ibid,, p. 7.
E. Nordenskiöld. La vie des Indiens dans le Chaco, p. 48.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
135
Mais je n'en connais pas d'autre exemple. Presque partout le travail des jardins et des
plantations revient aux femmes, pour la raison que c'est elles qui enfantent. C'est donc
elles qui doivent être mises en contact intime et fréquent avec la terre et les végétaux,
afin que leur fécondité se communique à eux. Le P. Gumilla, indigné, reprochait aux
Indiens de laisser travailler leurs femmes sous un soleil ardent, tandis qu'eux-mêmes
se reposaient à l'ombre. Ils lui répondirent paisiblement qu'il n'y entendait rien : les
femmes, seules fécondes, pouvaient seules assurer la fertilité des jardins et des plantations 1. - Enfin, les Papous de l'île Kiwai traduisent cette idée en acte de la façon la
plus réaliste. Pour rendre fertiles leurs jardins, pour que leurs cocotiers donnent de
beaux fruits en abondance, ils emploient dans leurs opérations magiques des liquides
provenant des organes génitaux de leurs femmes, ou des objets imprégnés de ces
liquides 2.
Laissons la magie agraire, dont le trésor serait inépuisable. Nombre d'autres actions symboliques, en vue de transmettre ou de communiquer une certaine qualité,
procèdent de même. Elles établissent une participation dirigée, c'est-à-dire limitée à
cette seule qualité. En voici quelques exemples, pris dans les régions les plus diverses, afin de mettre en lumière l'universalité de cette méthode chez les primitifs.
Soit à se procurer une qualité possédée à un haut degré par un animal, et que l'on
a le plus vif désir d'acquérir. « De tous les êtres vivants, les faucons sont ceux qui
tuent leur proie le plus infailliblement. C'est pourquoi, quand des parents veulent que
leur fils devienne un grand chasseur, ils cousent dans les vêtements du jeune garçon
la tête ou les pattes d'un faucon : il acquerra ainsi les qualités de l'oiseau 3. » Souvent
la participation se réalise par une sorte de communion, en mangeant ou en buvant.
Ainsi, dans la région de Vancouver, « on fait boire aux femmes stériles une décoction
de nids de guêpes ou de mouches, ces deux sortes d'insectes ayant une multitude de
petits 4 ». - Dans le sud-est de l'Australie, « le noir, en mangeant la graisse d'un homme, pense en acquérir la force... On croit généralement que lorsque deux choses sont
associées, tout pouvoir magique possédé par l'une se communiquera à l'autre 5 ».
Associées, c'est-à-dire mises en contact de façon à participer l'une de l'autre ; et dans
le cas cité par Howitt, la participation est limitée et dirigée. - En Amérique du Sud,
chez les Kobeua, « il y a un petit faucon à bec rouge, qui se tient de préférence dans
les plantations, et dont la vue, dit-on, est si perçante qu'il peut, d'une grande hauteur,
apercevoir un ver sur le sol. Quand un Kobeua a pris un de ces oiseaux, il lui enfonce
une pointe dans les yeux et il instille leur liquide dans les siens, afin que sa propre vue
devienne plus perçante à la chasse 6 ». - En Afrique équatoriale, sur le haut Ogooué,
« l'antilope osibi, explique un chef Bamba, ne va paître que la nuit. Durant la journée,
elle dort ou rumine, sans changer de place. Cette habitude a conduit les indigènes à en
faire le symbole de la fixité. Ils sont convaincus que tous ceux qui ont mangé en
commun de sa chair, lors de l'inauguration d'un nouveau village, ne le quitteront pas
pour aller habiter ailleurs 7 ». Pareillement, dans la presqu'île malaise, un chef empê1
2
3
4
5
6
7
Cité dans La mentalité primitive, p. 363.
G. Landtman. The Kiwai Papuans of British New-Guinea, ch. V, pp. 70, 81, 90 et passim.
Kn. Rasmussen. Neue Menschen, pp. 166-167.
Fr. Boas. N. W. Canadian tribes. Reports of the british association for the advancement of science,
1890, p. 377.
A. W. Howitt. The native tribes of S. E. Australia, p. 411.
Th. Koch-Crünberg. Zwei Jahre unter den Indianern, II, p. 153.
A. Even. Documents du Musée du Congo belge. Dossier ethnographique nº 798. Tervueren, cité
par J. Maes, Mythes et légendes sur l'allumeleu " populations du Congo belge. Africa, IX, pp. 505506.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
136
chera son jeune fils de manger du cerf, de peur qu'il ne devienne craintif comme cet
animal. Des qualités de l'antilope, l'Africain ne considère que la « fixité » ; entre
celles du cerf, le Malais n'est attentif qu'à la timidité. En se nourrissant de leur chair,
ce sont ces qualités, et celles-là seulement, que l'on acquerra. Croyances d'autant plus
remarquables que la mentalité primitive, en général, n'est guère portée à l'abstraction.
Or, cette façon de s'assimiler une seule des qualités d'un être, par le moyen d'une
participation limitée, implique évidemment que les primitifs l'ont séparée des autres
dans leur esprit.
Mais cette abstraction n'est pas de caractère logique. Elle n'aboutit pas à la définition d'un concept. Elle ne s'exprime guère, sauf exception, dans le langage, mais
ordinairement par l'action symbolique qui réalise la participation désirée. Elle est
ainsi comprise dans un complexe où les éléments affectifs dominent. On reconnaît ici
la façon t'abstraite propre à la mentalité primitive. Comparée à la nôtre, elle semble ne
pas quitter le plan du concret. N'est-ce pas ainsi que l'on peut comprendre le processus mental d'où procède une pratique telle que la suivante ? « La tête d'un homme de
valeur fut détachée du tronc avant que le cadavre fût entièrement décomposé, et
suspendue de manière à faire égoutter le liquide sur une masse de chaux disposée à
cet effet. On croit que le cerveau est le siège de la sagesse, la chaux absorbe celle-ci
au fur et à mesure que la cervelle se décompose. On applique alors de cette chaux sur
le front des vivants ; de cette façon, ils seront imprégnés de la sagesse de la personne
dont la cervelle a égoutté sur la chaux 1. »
Autre exemple de cette sorte d'abstraction impliquée dans un acte. L'effet désiré
n'est pas le transfert d'une qualité, mais d'un état. Il s'agit de faire en sorte que, par le
moyen d'une participation, un passage reste fermé. « On m'a rapporté le cas d'une
femme jalouse qui, sur le conseil d'un « docteur » versé dans les mystères du sexe
féminin, cacha sous ses vêtements un choix de serrures, puis alla s'asseoir à la porte
de sa rivale qui accouchait. Sans être vue, elle ferma à clef toutes ces serrures. Elle
avait préalablement dérobé un vieux gilet de sa rivale qu'elle enroula sur lui-même, si
serré qu'elle en fit une sorte de balle. Pour plus de sûreté, elle tenait les doigts d'une
de ses mains étroitement serrés par l'autre, et elle restait assise, les jambes croisées exactement comme fit jadis Juno Lucina, résolue à empêcher Hercule de naître 2. »
Cette femme, dévorée de jalousie, veut que les organes génitaux de la parturiente ne
laissent pas sortir l'enfant. Elle les clôt donc, symboliquement, en fermant et en
serrant tout ce qui pourrait se trouver ouvert à proximité. L'état d'occlusion se communiquera ainsi à ces organes. Je terminerai en rapportant deux observations recueillies en Indonésie, où ressort
avec évidence l'abstraction caractéristique impliquée dans cette sorte d’action. « A
Bas-Mori et chez les Bare'e Toradja's, on prend les os d'une poule qui est morte dans
son nid, et on les porte toujours sur soi pendant qu'on est en voyage. Grâce à la vertu
de ces os, l'homme qui les porte sur lui échappera à toutes les causes de mort tant que
le voyage durera. Il aura beau tomber malade, il aura beau rester absent très long-
1
2
J. L. Wilson. Western Africa, p. 393. Cité par F. H. Nassau, Fetichim n West Africa, pp. 158-159.
D. A. Talbot. Woman's mysteries of a primitive people, p. 22. Cité par Sir James Frazer.
Altermath, p. 268.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
137
temps, il ne pourra mourir que chez lui 1. » - A Célèbes encore, au centre de l'île,
« quand un homme veut épouser la femme d'un autre, il prend un poil de la moustache d'un chat et un poil de celle d'une souris. Il les coupe en petits morceaux très
fins et les mélange avec le riz mangé par le couple. Il s'ensuivra des querelles si violentes entre les époux, qu'il leur faudra se séparer, et alors l'instigateur de ce mal
pourra demander la main de la femme 2 ».
1
2
A. C. Kruyt. Measa, III. Bijdragen lot de taal-land-en volkenkunde van Nederlandsch Indië, LXVI,
p. 33. (1920)
Ibid. p. 83.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
138
CHAPITRE VII
LA PRÉFIGURATION
SYMBOLIQUE
Retour à la table des matières
Souvent, chez les primitifs, une action symbolique a pour objet qu'un événement
désiré se produise. Elle consiste alors à le « préfigurer ». Réalisé, pour ainsi dire,
d'avance et comme en effigie, il le sera aussi en fait. Le symbole aura la vertu de
rendre effectivement réel ce qu'il « représente ». Comme les actions symboliques dont
il a été question plus haut, celles-ci doivent leur efficacité à la participation dont le
principe similia similibus est le schème général. Mais laissons d'abord parler les faits.
Dans une tribu du Sud de l'Inde, « de petites statuettes de bois sculpté, mâles et
femelles, sans vêtement, sont fabriquées à Tirupati pour être vendues aux Hindous.
Ceux qui n'ont pas d'enfants célèbrent sur ces statuettes la cérémonie du percement
des oreilles, croyant qu'en conséquence il leur naîtra de la postérité. Ou bien, s'il y a
dans une famille des garçons ou des filles encore célibataires, les parents célèbrent la
cérémonie du mariage entre deux poupées, dans l'espoir que le mariage de leurs
enfants ne tardera pas à suivre. On habille les poupées, on leur met des bijoux, et la
cérémonie d'un mariage véritable se déroule tout entière. Il y a des gens qui, pour un
mariage de poupées, ont dépensé autant que pour un véritable 1 ». Dans la pensée de
ces Hindous, la préfiguration de l'heureux événement a pour effet de l'amener à se
produire.
1
E. Thurston. Ethnographic notes in Southern India, p. 347. (1906)
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
139
Le P. Heinrich Meyer a observé bien des fois cette croyance en la vertu de l'action
symbolique par préfiguration chez les indigènes de la Nouvelle-Guinée avec qui il a
vécu, et il insiste sur la place qu'elle tient dans leur vie. « Le symbole joue ici un si
grand rôle ! Dans la pensée fondamentale des indigènes, les propriétés et les forces
d'un modèle se communiquent à leurs images et à leurs symboles ; plus on pénètre
dans la pensée de ces gens, plus on a d'occasions de vérifier qu'il en est ainsi... Le
magicien réalise souvent, d'une façon symbolique, les effets qu'il attend de sa magie.
Ils paraissent croire que l'effet passe dans l'action symbolique 1... »
Dans un ouvrage récent, M. F. E. Williams rapporte des exemples très caractéristiques d'action symbolique par préfiguration. « Des Keraki (Papous de la NouvelleGuinée anglaise), chasseurs de têtes, se préparent à un raid chez une tribu voisine. Les
jeunes gens vont à la chasse de temps en temps. Ils rapportent au camp des wallabies,
que l'on soumet au même traitement magique que s'ils personnifiaient certains de
leurs ennemis. Un homme d'âge leur brise les pattes et, prononçant les noms de ces
futures victimes, il s'écrie : « C'est ainsi que « nous vous brisons les jambes! » Ce rite
ne symbolise pas la mort ou la mutilation des victimes. En tout cas le Keraki, chasseur de têtes, n'a pas coutume de maltraiter les corps; il en a surtout à leurs têtes. Les
Keraki déclarent formellement que ce rite a pour objet de paralyser les jambes des
ennemis, ce qui les mettra hors d'état de fuir 2. »
Il s'agit de faire en sorte qu'ils ne puissent pas se sauver, et qu'ainsi les agresseurs
s'emparent de leurs têtes. Pour cela, il faut que leurs jambes leur refusent le service.
Résultat que les Keraki obtiennent en les brisant en effigie, symboliquement. Ils
donnent en effet à des animaux capturés à la chasse les noms des ennemis qu'il s'agit
de paralyser. Dès lors ces wallabies sont devenus les symboles (au sens du mot
exposé plus haut), c'est-à-dire les substituts, les doubles des futures victimes, c'est-àdire enfin ces victimes elles-mêmes. En vertu de la participation ainsi établie, lorsque
les Keraki brisent les pattes des wallabies, ils paralysent du même coup les jambes
des ennemis identifiés ainsi avec ces animaux. L'attaque déclenchée, ces hommes
seront aussi incapables de fuir que le seraient les wallabies. Peu importe qu' « objectivement » il n'y ait rien de commun entre eux. Il suffit que le nom de chacune des
victimes ait été donné à l'un des animaux dont on a brisé les pattes. L'impossibilité de
se sauver a été transférée des wallabies aux hommes.
Ce n'est pas tout. Leurs préparatifs terminés, les Keraki se sont glissés sans être
vus jusqu'au village ennemi. Ils en occupent les abords immédiats, et, selon leur
coutume, ils attendent le petit jour pour attaquer par surprise. Juste à ce moment, « un
guerrier croit entendre une ou deux voix endormies. Au comble de l'anxiété, dans sa
crainte que les ennemis ne se réveillent trop vite, Sarisak casse de petits rameaux, un
pour chaque voix, creuse un trou dans le sol, et les y enterre; de la même façon, les
hommes dont il a perçu la voix vont être ensevelis dans le sommeil 3 ». Action
symbolique du même type que la précédente. M. Williams se demande si elle n'est
pas improvisée par le guerrier papou, dans le paroxysme de sa passion. Elle n'en serait
que plus instructive. Elle prouverait que, dans l'esprit de ces primitifs, le schème de
ces actions symboliques (participation limitée et dirigée), est prêt à fonctionner à tout
instant. Pour que la surprise réussisse, il faut, à tout prix, que les ennemis ne se
1
2
3
P. Heinrich Meyer, S. V. D. Wunekau, oder Sonnenverehrung in Neuguinea. Anthropos. XXVII,
p. 39. (1933)
F. E. Williams. Papuans of the Trans-Fly, p. 269. (1936)
Ibid., p. 274.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
140
réveillent pas. Or, il y en a qui semblent en être tout près ! Sarisak n'hésite pas. D'un
geste presque réflexe, il les renfonce dans le sommeil : il enfouit dans le sol des petits
rameaux avec lesquels son vouloir et son acte les identifient. De même que ces
rameaux ne peuvent sortir de terre, il sera impossible à ces hommes de se réveiller.
Les actions symboliques de ce genre n'impliquant aucune relation préalable entre
le symbole et ce qu'il « représente », elles se rencontrent sous les formes les plus
variées. Mais cette diversité n'empêche pas qu'elles ne se modèlent en général, quant
au fond, sur le schème dont nous venons de parler. Ainsi, en Nouvelle-Calédonie,
« poakiri : frotter avec une corde résistante l'écorce d'un arbre, de façon à la sectionner sur tout son pourtour, ce qui peut entraîner le dépérissement de l'arbre. Opération
magique, qui se fait sur l'arbre bui; on scie ainsi avec une corde, en prononçant le
nom d'un homme solide et élégant à qui l'on veut nuire. Le bois entamé, on lie la
corde. Le bui en dépérira ; de même, le guerrier représenté par lui ». Même opération
pour le phallus. « J'use et scie le phallus de cet homme ; que sa tête soit Cassée 1 ! »
Très loin de là, en Afrique australe, chez les Bassontos, « les sorciers ont bien des
manières d'exercer leur art : par exemple, de la façon suivante. Le sorcier enfonce sa
lance dans un arbre, ou l'entame avec sa hache. En même temps, il appelle à haute
voix, par son nom, celui qu'il veut faire mourir. « Un tel, je te tue, « il faut que tu
meures ! » 2 ».
Une action symbolique très souvent observée consiste à venir en aide à la femme
en travail quand l'accouchement est difficile et que l'enfant semble ne pas pouvoir
naître. En voici deux descriptions sommaires, l'une chez les habitants de l'île
Sakhalien, l'autre, en Afrique équatoriale. « Pendant que sa femme est dans les
douleurs de l'enfantement, le Giliak exprime son inquiétude d'une façon singulière. Il
ouvre absolument tout ce qui peut s'ouvrir. D'abord sur sa propre personne ; il défait
les nattes de ses cheveux, les lacets de ses souliers, et ses manches. Puis il dénoue
tout ce qui, à ce moment, peut se trouver noué dans la maison ou dans son voisinage.
Dans la cour, il retire la hache qui est restée enfoncée dans une bûche ; si le canot est
attaché à un arbre, il le détache ; il ôte de son fusil les cartouches, et de son arbalète
les flèches. Sans ceinture, image de la désolation, il se traîne de coin en coin, ou bien
il demeure étendu, à réfléchir s'il n'y a pas encore quelque chose qu'il puisse délier ou
dénouer ; car, dans sa pensée, les douleurs de sa femme et leur durée dépendent du
plus ou moins de soin qu'il aura mis à ne rien laisser de serré, noué ou fermé 3. » - En
Afrique équatoriale française, chez les Pahouins du moyen Ogooué, « il arrive parfois
que l'enfant ne présente que la tête et que le reste ait des difficultés à suivre. Une des
femmes présentes va demander au mari si, pendant la grossesse de sa femme, il n'a
rien cloué, ou attaché avec des lianes. Ce pourrait être cela qui retient l'enfant ; dans
ce cas, le mari doit déclouer ou détacher quelque chose ; de même, s'il a construit une
case, il doit enlever quelques écorces au mur pour faciliter la naissance de son enfant.
« Si la délivrance est plus particulièrement difficile, un homme conduit un jeune
garçon auprès d'un manguier sauvage, le prend par les pieds et lui fait gratter l'écorce
de l'arbre avec une machette, en le tenant suspendu la tête en bas. En même temps
1
2
3
M. Leenhardt. Dictionnaire de la langue houaïlou, p. 235.
Information collected by C. Hoffmann. Betshabelo. Africa, VIII, p. 521.
Br. Pilsudski. Schwangerschaft, Entbindung und Fehlgeburt bel den Bewohnern der Insel
Sachalin. Anthropos, V, p. 759. (1910)
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
141
qu'il gratte, l'enfant recueille les morceaux d'écorce dans une assiette. Ces morceaux
rapportés au village servent à préparer une infusion que boit la patiente 1. »
Il est intéressant de rapprocher ces actions symboliques des manœuvres de la
femme jalouse qui voulait empêcher de naître l'enfant de sa rivale. Nous l'avons vue
rouler et nouer un gilet de celle-ci, s'asseoir à sa porte, boucler des serrures, croiser
les jambes, serrer les doigts, etc. : symboles de fermeture et de bloquage. En vertu de
la participation établie entre tous ces objets serrés ou clos, et les organes de la
parturiente, et de l'influence ensorcelante provenant des « dispositions » de la femme
jalouse, l'enfant ne pouvait pas sortir. Veut-on, au contraire, lui faciliter le passage et
l'aider à naître, on emploie des procédés exactement inverses, comme nous le voyons
chez les Giliaks de Sakhaline et chez les Pahouins. Ce sont, pourrait-on dire, dans les
deux cas, les mêmes actions symboliques, mais de signe contraire.
*
**
M. F. E. Williams, qui a observé chez les Keraki des actions symboliques par
préfiguration si caractéristiques, comme nous l'avons vu tout à l'heure, croit pouvoir
les expliquer par sa théorie générale de la magie. « L'élément fondamental de la
magie, dit-il, consiste précisément à désirer le résultat, mais à le désirer de la façon
spéciale (sans aucune base dans la réalité donnée), que nous appelons souhait ou
espoir (wishing or hoping). Dans sa passion de se satisfaire, le désir-souhait se
procure d'avance une réalisation de son objet en la préfigurant ou en l'imitant. » La
distance qui sépare cette préfiguration d'une réalisation effective disparaît. Les obstacles, souvent nombreux et selon nous insurmontables, qui s'opposent à celle-ci
s'évanouissent. C'est là que se révèle le pouvoir propre de la magie : pour que la fin
soit réellement atteinte, il n'est pas besoin que l'action se règle sur les liaisons nécessaires des causes et des effets. Placée sur un plan d'où elle domine les phénomènes de
la nature, la magie est maîtresse d'en disposer comme elle veut, souverainement. A ce
propos, M. Williams cite une expression frappante d'une malade de Freud, qui lui
parlait de la « toute-puissance du vouloir » (Allmacht des Willens). La confiance des
primitifs en leur magie refléterait de même le sentiment qu'ils ont de la puissance de
leurs désirs-souhaits, capables de plier les séquences de phénomènes à leur gré.
Nous ne pouvons entrer ici dans l'étude d'une théorie générale de la magie, qui
nous entraînerait bien au delà des limites de notre sujet. Notre examen ne doit porter
que sur un point : la théorie de M. Williams suffit-elle à expliquer les actions symboliques par préfiguration ? Nous sommes loin de méconnaître la justesse des
considérations générales sur lesquelles il s'appuie. Nous admettons avec lui que les
primitifs regardent ce que l'on appelle sentiments et passions comme des forces au
sens plein du mot. La jalousie, l'envie, la colère, le mauvais ou le bon vouloir, tout ce
que j'ai désigné ailleurs par le nom de « dispositions » 2, produit des effets dont ils
1
2
Éd. Trézenem. Notes ethnographiques sur les tribus Fan du moyen Ogooué. Journal des
Africanistes, VI, p. 81. (1936)
Le surnaturel et la nature dans la mentalité primitive, pp. 61-63.
Lucien Lévy-Bruhl, L’expérience mystique et les symboles chez les Primitifs (1938)
142
constatent constamment l'existence. L'envie, par exemple, aussi dangereuse que le
mauvais œil, dont elle se distingue mal, n'est pas moins funeste à son objet qu'un ensorcellement. Or les désirs, les souhaits formulés ou non, sont aussi des « dispositions
» et, par conséquent, des forces actives. Souhaiter ardemment la mort de quelqu'un est
plus qu'une menace pour sa vie. C'est déjà la mettre effectivement en danger, c'est
avoir commencé à le tuer.
| 36,358
|
tel-03774519-NAKID_CORDERO_Cecilia_2020.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Caractérisation immunologique et recherche de biomarqueurs innovants des lymphoproliférations post-transplantation. Immunologie. Sorbonne Université, 2020. Français. ⟨NNT : 2020SORUS033⟩. ⟨tel-03774519⟩
|
None
|
French
|
Spoken
| 7,655
| 13,473
|
Caractérisation immunologique et recherche de biomarqueurs innovants des lymphoproliférations post-transplantation Cecilia Nakid Cordero
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Sorbonne Université Ecole doctorale 394
- Physiologie, physi
o
pathologi
e
et
thérapeut
ique
Centre d
’Im
mun
ologie
et de
Ma
ladies Infectieuses (CIMI-Paris) / Equipe 9 « NK and T Cell Immunity, Infection & Cancer » Caractérisation immunologique et recherche de biomarqueurs innovants des Lymphoproliférations PostTransplantation Par Cecilia
NA
KID
CORDERO
Thèse de doctorat d’Immunologie
Diri
gée
par Amélie GUIHOT-THEVENIN et Brigitte AUTRAN
Présentée
et
soutenue publiquement le
9 Septembre 2020 Devant un
jury composé de : Pr. Vincent MARECHAL, PU, Président du Jury Pr. Sophie CANDON, PU-PH, Rapporteur Pr. Caroline BESSON, PU-PH, Rapporteur Pr. Éric TARTOUR, PU-PH, Examinateur Dr. Henri VIE, DR INSERM, Examinateur Dr. Amélie GUIHOT-THEVENIN, MCU-PH, Directeur de thèse Pr. Brigitte AUTRAN, PU-PH, Directeur de thèse A los que viven en mi recuerdo y en mi corazón, mi papá y mis abuelos. 1 Remerciements
Chère Amélie, Je ne peux que commencer par te dire merci : merci d’avoir cru en moi, pour ta confiance, pour me laisser prendre des responsabilités, pour ton énorme patience et pour tout le travail, les efforts et l’intérêt que tu as apporté non seulement à la direction et encadrement de ma thèse, mais également à moi et à mon projet professionnel. J’ai beaucoup grandi comme chercheur grâce à toi. J’ai beaucoup appris grâce à toi! Merci de tout mon cœur, et j'espère que de nombreuses collaborations ensemble suivront dans le futur! Chère Brigitte, Ca été un réél plaisir pour moi de pouvoir travailler avec vous. Je vous remercie de m'avoir accueillie dans votre laboratoire il y a maintenant presque 4 ans, de votre support et de votre aide tout au long de ce projet de thèse. Je suis certaine que mon travail, ainsi que plusieurs qualités que j'ai acquises au cours de ces années, sont le résultat de votre exemple et votre qualité d'encadrement très pédagogique. Cher Vincent, Par où commencer?! J’admire beaucoup ta qualité scientifique ainsi que ta qualité humaine. Tu as toujours été là pour répondre mes questions et m'as porté une aide précieuse dans des moments difficiles. Grâce à ton investissement et ta collaboration dans mon projet de thèse, j'ai beaucoup gagné en apprenant à connaître les peu ordinaires cellules NK. Il me reste beaucoup à apprendre sur les petites tueuses mais tu m’as déjà fourni des outils nécessaires pour continuer par moi-même! Je souhaite remercier les membres de mon jury : Aux Professeurs Caroline Besson et Sophie Candon pour avoir accepté d’être les rapporteurs de ma thèse et me faire l’honneur d’évaluer mon travail. Vos remarques
m’ont permis d’améliorer mon travail. Au Professeur Vincent Maréchal d’avoir accepté de présider le jury de ma thèse et au Docteur Henri Vié d’être examinateur. Je vous remercie chaleureusement. Je tiens à remercier le Professeur Eric Tartour pour son accompagnement lors de mes comités de suivi de thèse et pour ses précieux conseils qui ont enrichi mon travail, et maintenant de me faire l’honneur d’être examinateur de ma thèse. Je remercie également le réseau K-Virogref: Au Pr. V Leblond, Dr S Choquet, Dr N Balegroune et tous leurs collaborateurs. C’est grâce à leur dévouement et à leur travail pour construire jour à jour le réseau et la cohorte des patients 2 que ce projet de recherche a vu le jour. Merci pour les conseils et les discussions qui m’ont toujours instruit. Je souhaiterais également exprimer ma plus grande reconnaissance et gratitude aux patients. Un grand merci à la Ligue contre le Cancer! A mes collègues du CERVI qu'ont contribué à faire de chaque jour de ma thèse une bonne journée: A los pipetas locas du L2 et du voisinage proche: Mariama, Alice, Marine, Elyes, Nico, Baptiste, que du bon temps passé à maniper, à papoter, à rater ses manips... et ensuite aller chercher Krys pour essayer de se rattraper! Aux copines de l'équipe Nadine, Anne et Véro (toujours ensemble) et Assia, merci pour toute votre aide et conseils. A Sophie et à ma p’tite Josette, qui sont parties poursuivre des nouvelles aventures mais avec qui la conversation était trop bonne! A ma chère Virginie, pour ton amitié et patience, mais aussi pour avoir été la meilleur prof de français que je n’ai jamais eu! Maintenant j'écris tellement presque bien, j’ai même osé écrire une thèse en français!! A Krys, les pauses café avec toi vont énormément me manquer! Je dis au revoir à une excellente collègue mais je te garde en copine! Un remerciement spécial à tous ceux que j'ai passé tous ces années à embêter avec mille questions et qui m'ont toujours dédié leur temps pour y répondre. Au labo, quand au cours des pires galères (quand la manip ne marche pas), dont celles qui surviennent le vendredi soir, vous m'avez toujours aidé Krys, Christophe et Karim. Merci aussi pour toujours répondre à mes « petites questions ». Au CyPS, merci à Catherine, Béné et Aurélien pour avoir toujours été extrêmement gentils et patients avec moi. And obviously, a very special thanks to you Martin. For the teaching, for the advices, for all your kind help!! Et que dire des fifilles du T4/T8: Krys, Christine, Virginie, Babeth, Isa, Mumu, Laeticia, Imane, et du garçon: Jean-Luc qui m'as montré de la bonne musique mexicaine! J'ai beaucoup apprécié les pauses café chez vous, les conversations et cette solidarité entre la recherche et le côté clinique du labo qu’on a créé avec le temps. Je tiens également à remercier tous ceux avec qui j’ai partagé du temps de détente et des bonnes conversations même si nous n'avons pas travaillé directement ensemble, Hans, Arielle, Alicia , grand Baptiste et moyen Baptiste. 3 Por último, agradezco a los más importantes de vida: mi familia, ma famille, meine familie : A mi Chula Madre, no creo que nadie se pueda imaginar todo lo que has hecho por mi como madre y confidente (no hay espacio para escribir 30 años de historia aquí) pero creo que la mejor forma de resumirlo es diciendo que eres mi modelo a seguir y que te admiro muchísimo como persona. Gracias por todo Ma. Al Chato y a la Chula Sis, ¡que tremendo par de hermanitos me tocó! ¡Los quiero muchísimo!...y obviamente quien dice Chula Sis, incluye al clan de los Chulitos germánicos: Bashi y Flo! A mon Doudou, Vince tu as complètement changé ma vie. Je ne peux que te remercier pour tout ton support, ton amour et ton amitié. Tu as vécu (ou plutôt dire que tu as subi) cette thèse à mon côté, et tu as toujours trouvé le sourire et la tendresse qui m’étaient nécessaires dans les moments plus difficiles. Je te dédie cette thèse en échange! A Caro, Philippe, Juju, Antoine, Delph, Léa et le clan Garreau, vous êtes devenus une partie très importante de ma vie, ainsi qu’une extension de ma famille. Merci de m’avoir toujours encouragé! Et à mes amis!! A Caro, Diana y Lais que también son parte de mi familia porque yo las adopto como tal! Au reste du gala de gaffes à gogo que je n’ai pas encore mentionné: Lino, Pento, Spo... eh oui les gars j’ai réussi à finir la thèse sans bruler le labo!
4 Abréviations ADCC, cytotoxicité à médiation cellulaire dépendante des anticorps ADN, acide désoxyribonucléique AICD, activation-induced cell-death AP-1, protéine d’activation 1 ARN, acide ribonucléique ATG, immunoglobulines polyclonales anti-Thymocytes AZA, Azathioprine BCR, récepteur des lymphocytes B CAR, récepteur antigénique chimérique CDC, cytotoxicité dépendante du complément CMH, complexe majeur d’histocompatibilité CPA, cellule présentatrice d’antigène CsA, cyclosporine A CTL, lymphocytes T cytotoxiques CTL-EBV, lymphocytes T cytotoxiques anti-EBV CMV, cytomégalovirus
CG, centre germinatif DC, cellule dendritique EBV, virus d’Epstein-Barr EBNA, antigène nucléaire du virus Epstein-Barr EBER, ARN non-codant du virus Epstein-Barr FC, fraction constante FCγRIII, récepteur de faible affinité de la partie constante Fc des immunoglobulines de types G, aussi connu comme CD16. HHV-8, herpesvirus humain 8 HLA, human leukocyte antigen IFNγ, interféron gamma Ig, immunoglobuline IL-2Ra, chaine alpha du récepteur à l’interleukine 2 IL, interleukine IS, immunosupresseur ITAM, motif d'activation des récepteurs immuns basé sur la tyrosine KIR, killer immunoglobulin receptors 5 LB, lymphocyte B LPT, lymphoprolifération post-transplantation LT, lymphocyte T LT CD4+, lymphocyte T CD4+ LT CD8+, lymphocyte T CD8+ LTh, lymphocyte T helper LMP, protéine de membrane latente NK, lymphocyte Natural killer NFAT, facteur nucléaire d’activation des cellules T mAbs, anticorps monoclonaux MICA/B, MHC Class I Polypeptide-Related Sequence A / B MMF, Mycophénolate mofétil MNI, Mononucléose Infectieuse mTOR, mechanistic target of rapamycin NCR, natural cytotoxicity receptors NFAT, facteur nucléaire d’activation des cellules T NF-κB, facteur nucléaire κB NK, natural Killer OMS, organisation mondiale de la santé PD-1, programmed cell death 1 PD-L1, programmed cell death 1 ligand TAC, tacrolimus TCR, récepteur des lymphocytes T TCSH, transplantation de cellules souches hématopoïétiques TIM-3, T-cell immunoglobulin and mucin containing protein-3 TLR, récepteur type Toll TNFα, facteur de nécrose tumorale alpha TOS, transplantation d’organe solide TRAIL, Ligand inducteur d’apoptose lié au facteur de nécrose tumorale TRAF6, facteur 6 associé aux récepteurs de facteurs de nécrose tumorale TRADD, domaine de mort associé aux récepteurs de facteurs de nécrose tumorale VCA, antigène de la capside virale 6 Sommaire Remerciements........................................................................................................................................ 2 Abréviations............................................................................................................................................ 5
Somm
aire
................................................................................
................................................................
Introduction.............................................
................................................
................................
................
9 1) Le système immunitaire : la réponse cellulaire......................................................................... 10 1.1) Les lymphocytes NK................................................................................................ 10 1.2) Les lymphocytes T................................................................................................... 14 1.3) Inhibition des réponses immunitaires et points de contrôle immunitaire....................... 20 2) La transplantation en France et dans le monde............................................................................. 23 2.1) Le traitement immunosuppresseur............................................................................. 23 2.2) Caractéristiques du système immunitaire du patient transplanté................................... 28 2.3) Complications après transplantation: Infections et cancer............................................ 30 3) Les lymphoproliférations post transplantation.............................................................................. 32 3.1) Etiologie des LPT..................................................................................................... 32 3.2) Classification de l’OMS............................................................................................ 33 3.3) Epidémiologie des LPT: facteurs de risque et survie................................................... 34 4) L’infection par l’EBV................................................................................................................... 37 4.1) Le virus de Michael Epstein et Yvonne Barr.............................................................. 37 4.2) Primo-infection par l’EBV........................................................................................ 38 4.3) Infection latente : réservoir viral et réactivation.......................................................... 41 5) Réponse immune contre l’infection par l’EBV............................................................................. 43 5.1) Chez l’individu immunocompétent............................................................................ 43 5.2) Infection par l’EBV après transplantation................................................................... 47 5.3) Réponse immune au cours des LPT EBV+................................................................. 49 5.4) Echappement viral.................................................................................................... 51
6) Prise en charge et pronostic des LPT............................................................................................ 54 6.1) Immunothérapies dans le Traitement des LPT............................................................ 55 6.2) Pronostic.................................................................................................................. 60 Objectifs................................................................................................................................................ 61 Résultats................................................................................................................................................ 64 1) Caractérisation du statut immunologique des patients transplantés rénaux adultes indemnes de LPT, comparés à des donneurs sains.......................................................................................................... 64 2) Evaluation fine du statut immunologique des patients transplantés au décours immédiat du diagnostic de LPT............................................................................................................................
112 Discussion...........................
................................................................................................................ 186 1) La cohorte K-Virogref dans le contexte mondial actuel des LPT............................................... 187 2) L’immunité T CD4+ post-transplantation et le développement des LPT................................... 187 2.1) Valeur pronostique d’une lymphopénie T CD4+ au diagnostic des LPT EBV-............ 188 2.2) Les modifications du compartiment T CD4+ après la transplantation......................... 189 2.3) Faibles réponses Th1 anti-EBV latent après transplantation : contribuent-elles au développement des LPT EBV+?............................................................................................... 189 3) L’immunité T CD8+ post-transplantation et le développement des LPT................................... 191 3.1) La réponse T CD8+ anti-EBV : une dichotomie des réponses latentes et lytiques........ 193 3.2) Modifications du répertoire des réponses T anti EBNA-3A post-transplantation......... 194 3.3) Épuisement des cellules T CD8+ anti-EBV au cours des LPT EBV+......................... 197 4) Le rôle des cellules NK après transplantation et au cours des LPT............................................ 198 5) Motifs d’expression des points de contrôle immunitaires au cours des LPT EBV+ et LPT EBV- : cause ou conséquence?.................................................................................................................... 200 5.1) Association entre l’expression de Tim-3 et la progression des LPT EBV-................... 201
Conclusion........................................................................................................................................... 204 Perspectives......................................................................................................................................... 206 Bibliographie....................................................................................................................................... 210
Annexes
...............................................
................
................................................
................................ 227 Annexe 1 : Profil polyfonctionnel des cellules T CD8+ anti-EBV des patients transplantés cliniquement stables ou ayant développé une LPT......................................................................... 228 Annexe 2 : Test de validation de l'anticorps anti-Caspase-3 active sur cellules cryopréservées.... 229 Annexe 3 : Phénotype des cellules NK cryopréservées des donneurs sains.................................... 230 Table des illustrations.......................................................................................................................... 231 Table des tableaux............................................................................................................................... 233 Résumé................................................................................................................................................
234
Abstract...............
................................................................................................................................
236 8 Introduction
La transplantation d’organes représente actuellement un traitement indispensable pour de nombreuses maladies engageant le pronostic vital. Cependant, le système immunitaire du receveur constitue un obstacle à la prise et à la survie du greffon. Pour cette raison, la transplantation est souvent accompagnée d’un traitement immunosuppresseur à vie, qui est responsable d’une déficience de la réponse immunitaire du patient et favorise l’apparition d’infections et de cancers. 1) Le système immunitaire : la réponse cellulaire
Le système immunitaire est constitué d’une large diversité de composantes cellulaires et moléculaires qui interagissent pour coordonner la protection de l’organisme contre des substances de nature étrangère, c’est à dire des antigènes. Les réponses immunitaires se classifient en innées et adaptatives. La réponse innée utilise des mécanismes de défense qui sont présentes avant l’antigène et donc immédiats; elle assure ainsi la première ligne de protection de l’organisme contre une large variété d’antigènes. La réponse adaptative s’intègre dans un deuxième temps et se caractérise par l’adaptation des réponses à un antigène spécifique, en termes de durée, intensité et mémoire. Ainsi, la réponse innée ne change pas en cas d’exposition répétée à un même antigène, tandis que les réponses adaptatives deviennent plus rapides et efficaces lors de la rencontre ultérieure avec leur antigène. Les composants cellulaires des réponses immunitaires sont les leucocytes, dont les lymphocytes, les phagocytes et d’autres cellules auxiliaires. Dans cette section, nous aborderons uniquement la biologie des lymphocytes T et NK, qui sont les principaux acteurs de l’immunité anti-virale et anti-tumorale dans le contexte de l’infection par l’EBV et du développement des lymphoproliférations chez le patient transplanté.
1.1) Les lymphocytes NK
Les lymphocytes NK sont des effecteurs cytotoxiques de la réponse innée et sont caractérisés par l’expression de la molécule d’adhésion CD56, par la présence de nombreux granules dans leur cytoplasme et par l’absence d’un récepteur à antigène spécifique. Ces cellules constituent entre 5% et 15% des lymphocytes périphériques. Selon leur degré de différenciation, les cellules NK expriment des quantités différentes de CD56 et peuvent exprimer ou pas le récepteur FCγRIII CD16 à leur surface. Les cellules CD56Brigth CD16 +/- sont les moins différenciées. Elles se distribuent principalement dans les tissus et représentent entre 5% et 10% de cellules NK circulantes. Leur capacité de production de cytokines, telles que l’interféron-γ (IFNγ) et le facteur de nécrose tumorale-α (TNFα), est supérieure à celle des cellules NK plus différenciées CD56Dim. Les cellules CD56Dim CD16+ sont majoritaires dans le sang périphérique et ont une capacité cytotoxique (dégranulation de 10 produits cytotoxiques dont la perforine et certaines granzymes) supérieure à celle des cellules CD56 Bright. De plus, les cellules CD56Dim expriment CD16 qui se fixe à la fraction constante des immunoglobulines pour induire une cytotoxicité à médiation cellulaire dépendante des anticorps (ADCC). Globalement, les deux sous-populations des cellules NK sont capables de produire des cytokines, et d’induire la cytotoxicité des cellules cibles (Abbas et al., 2017). Les cellules NK expriment également des ligands de récepteurs de mort, tels que FASL et TRAIL. L’interaction de ces ligands avec leur récepteur déclenche l’apoptose de la cellule cible par la voie extrinsèque, c’est à dire par l’activation de la caspase 8 (caspase initiatrice) qui active à son tour les caspases 3 et 7 (caspases effectrices)(Galluzzi et al., 2018). L’activation des cellules NK dépend de l’équilibre entre les signaux positifs et négatifs des nombreux récepteurs activateurs et inhibiteurs présents à leur surface. Les ligands de ces récepteurs sont des molécules du complexe majeur ’histocompatibilité de classe I (CMH) et des molécules induites par le stress. Ainsi, les cellules NK sont capables de différencier les cellules saines des cellules infectées ou tumorales, et de détruire ces dernières (Figure 1)(Elliott and Yokoyama, 2011). Figure 1 Activation des cellules NK. L’
activation
de la
cellul
e NK
dépend de
l’
équilibre entre les interactions des
récepteurs d’activation et inhibition avec ces ligands présents dans la cellule cible. Source: «Effector responses of NK cells are regulated by inhibitory and activation receptors.» d’après Elliott J. et Yokoyama W., 2011). 11
Les principaux récepteurs des molécules du CMH classe I exprimés par les cellules NK sont les récepteurs de type C-lectine (NKG2A, NKG2C et NKG2D) et les récepteurs de la famille KIR (killer immunoglobulin receptors), tandis que les NCR (Natural cytotoxicity receptors) reconnaissent principalement des molécules associées à une infection virale ou à un processus tumoral (Figure 2).
Figure 2. Principaux récepteurs d'activation et d'inhibition des cellules NK et ses ligands. Source: « Structure and ligands of activating and inhibitory receptors of NK cells» d’après Abbas A., Litchman A., et Pillai S., 2017.
12 Récepteurs de type C-lectine. NKG2A est un récepteur inhibiteur exprimé par la majorité des cellules NK et reconnaît HLA-E. L’HLA-E présente des peptides intracellulaires dérivées d’autres molécules du CMH de classe I dans des conditions physiologiques (signal inhibiteur), mais cette molécule est fréquemment sous-exprimée dans des conditions pathologiques telles que des infections virales ou lors d’un processus tumoral (signal activateur)(Seliger et al., 2002). NKG2C et NKG2D sont des récepteurs activateurs des cellules NK. NKG2C est faiblement exprimé par des cellules NK et reconnaît également l’HLA-E, mais avec une affinité inférieure à celle de NKG2A. NKG2D est exprimé par la majorité des cellules NK et reconnaît les molécules de stress MICA et MICB, qui sont des ues de molécules du CMH de classe I. Récepteurs KIR. Les récepteurs inhibiteurs KIR sont KIR2DL1, -2DL2/DL3, - 2DL5, -3DL1, -3DL2 et 3-DL3. Les récepteurs KIR2DL1 et KIR2DL2/DL3 reconnaissent l’HLA-C, KIR3DL1 reconnaît l’HLA-B et KIR3DL2 reconnaît l’HLA-A, tandis que les ligands de KIR2DL5 et KIR3DL3 n’ont pas encore été identifiées. Les récepteurs KIR activateurs sont KIR2DS1, -2DS2/DS3, -2DS4, -2DS5 et -3DS1. Le récepteur KIR2DS1 reconnaît l’HLA-C avec une affinité plus faible que sa contrepartie inhibitrice, tandis que KIR2DS4 reconnaît l’HLA-A et –C. Les ligands des autres KIR activateurs n’ont pas encore été identifiés (Sivori et al., 2019). Récepteurs NCR. Ces récepteurs reconnaissent des produits viraux, tels que l’hémagglutinine du virus de l’influenza peut induire l’activation des cellules NK par son interaction avec NKp46 et NKp44 (Arnon et al., 2001), tandis qu’il a été observé que la protéine pp65 du cytomégalovirus (CMV) inhibe la cytotoxicité des cellules NK par son interaction avec NKp44.D’autres ligands des NCRs sont des protéines exprimées à la surface des cellules en réponse au stress ou par les cellules tumorales, telles que BAT3 (NKp30) et NKp44L qu’activent à la cellule NK par son interaction avec NKp30 et NKp44, respectivement (Baychelier et al., 2013; Pogge von Strandmann et al., 2007); ainsi que PCNA, qui est souvent surexprimé par les cellules tumorales et inhibe à la cellule NK par son interaction avec NKp44 (Rosental et al. , 2011). Il a été également suggéré que la protéine B7-H6 est un ligand activateur de NKp30 (Brandt et al., 2009). 1.2) Les lymphocytes T
Les lymphocytes T (LT) sont des effecteurs de la réponse cellulaire adaptative. Ils sont caractérisés par l’expression d’un récepteur à antigène spécifique des cellules T ou TCR. Ce récepteur est spécifique pour une séquence peptidique unique: un épitope; et sa fonction principale est de reconnaître l’antigène et de transmettre un signal d’activation à l’intérieur des cellules T. Le TCR est un hétérodimère composé des sous-unités α et β ou γ et δ, qui sont liées par un pont disulfure. L’hétérodimère est inséré dans la membrane de la cellule et possède un domaine extracellulaire, avec les sites de liaison à l’antigène, et un domine intra-cytoplasmique. De plus, le TCR est toujours associé avec le complexe CD3, qui lui donne stabilité et qui transmet le signal d’activation en aval à la reconnaissance de l’épitope par le TCR. Ainsi, les LT sont identifiés des autres sous-populations lymphocytaires par l’expression de CD3 et représentent environ 70% des lymphocytes dans le sang périphérique. Chaque type de TCR, αβ ou γδ, est exprimé par des cellules T avec des fonctions et des localisations différentes. Les LT exprimant un TCRαβ sont prédominants dans le thymus, dans les organes lymphoïdes périphériques et représentent environ 90-95% de cellules T dans le sang, tandis que les LT exprimant un TCRγδ prédominent dans les tissus épithéliaux et ne seront pas abordés ici. Le TCRαβ reconnaît des peptides présentés par les molécules du CMH en association avec un corécepteur, CD4 ou CD8, qui assiste le TCR dans l’interaction avec le CMH et qui amplifie le signal d’activation. L’expression des co-récepteurs CD4 et CD8 est mutuellement exclusive car chaque co-récepteur est associé à une fonction différente : CD4 est exprimé par les LT auxiliaires (LTh) et CD8 est exprimé par les LT cytotoxiques (CTL). De plus, les peptides issus des protéines provenant de l’intérieur de la cellule (endogènes) sont présentés par le CMH de classe I au TCR associé à CD8, tandis que les peptides provenant de protéines exogènes sont présentés par le CMH de classe II au TCR associé à CD4. Chez l’homme, les protéines codées par les gènes du CMH sont appelées antigènes des leucocytes humains (HLA) car elles furent identifiées pour la première fois en tant qu’antigènes d’histocompatibilité pour la greffe. C’est-à-dire de compatibilité entre les tissus du donneur et du receveur. Les principaux locus du HLA classe I sont HLA-A, HLA-B et HLA-C et les principaux locus du HLA classe II sont HLA-DR, HLA-DQ et HLA-DR, parmi plus de 300 gènes qui constituent le complexe. Les protéines HLA sont très polymorphes car il existe une 14 grande diversité allélique des gènes du CMH (nommés par des numéros ex. HLA-A2, HLAB8). De plus, les cellules d’un même individu co-expriment les protéines HLA codées par les deux allèles de chaque gène, qui sont généralement différentes. Les différences structurelles entre les protéines HLA jouent un rôle majeur dans la présentation antigénique car leur structure influence la composition du peptide présent . Ainsi, différentes protéines HLA présentent des peptides sensiblement différents issus d’une même protéine. Toutes les cellules nucléées de l’organisme expriment les molécules du CMH de classe I, tandis que les molécules du CMH de classe II sont exclusivement exprimées par les cellules présentatrices d’antigènes (CPA) et les cellules épithéliales du thymus. Les cellules dendritiques (DC) sont les CPA spécialisées en la « sensibilisation» des lymphocytes T naïfs et sont présentes en abondance dans les ganglions lymphatiques. Les DC ont la particularité d’exprimer l’HLA de classe II de façon constitutive et sont les seules à pouvoir présenter des peptides exogènes par le CMH de classe I par un processus connu comme “présentation croisée”. A la sortie du thymus, les LT sont « naïfs», c’est-à-dire que bien que ces cellules possèdent un TCR complètement fonctionnel et spécifique, elles ont encore besoin de la présentation du peptide par la CPA spécialisée afin de devenir activées. L’activation d’une cellule T naïve a généralement lieu dans le ganglion lymphatique et se déroule en plusieurs étapes. L’interaction des LT naïfs avec la CPA est appelée synapse immunologique et commence par l’interaction de molécules d'adhésion, telles que l'intégrine LFA-1 avec son ligand ICAM-1 (Figure 3A). Ensuite, le TCR et son co-récepteur (CD4 ou CD8) interagissent avec le complexe CMH-peptide (Figure 3B). La CPA exprime des millions de molécules du CMH à sa surface, avec des peptides différents; il est donc nécessaire que l’affinité du TCR pour le complexe CMH-peptide soit élevée et que plusieurs TCR interagissent avec leur complexe CMH-peptide respectif (avidité) pour déclencher le premier signal d’activation du LT (Murphy and Weaver, 2017). Le deuxième signal consiste en l’interaction de molécules de co-stimulation de la famille B7, dont CD28 exprimé par le LT avec CD80/86 exprimé par la CPA, qui vont amplifier les signaux d'activation et induire des signaux de survie. De plus, l’interaction CD28-CD80/86 induit le troisième signal: la production de l’interleukine-2 (IL-2) et l’expression du récepteur à IL-2 de haute affinité (IL-2Ra ; CD25), qui sont indispensables pour la prolifération et la différenciation des LT. 15 A) B) Figure 3. Activation des cellules
T. A) Formation de la synapse immunologique: le LT naïf s’attache à la cellule dendritique par l’interaction de l'intégrine LFA-1 avec son ligand ICAM-1, ensuite, par l’interaction du TCR et son co-récepteur (CD4 ou CD8) avec le complexe CMH-peptide. B) Trois signaux sont nécessaires pour l’activation des LT naïfs: 1) le signal d’activation délivré par l’interaction du TCR-CMH, 2) le signal de survie est délivré par l’interaction de molécules co-stimulatrices CD28-CD80/86 (B7.1/7.2) et le signal de prolifération/différenciation est délivré par les cytokines, dont l’IL-2. Source: «Transient adhesive interactions between T cells and antigen-presenting cells are stabilized by specific antigen recognition» et « Three kinds of signals are involved in activation of naive T cells by antigen-presenting cells» d’après Murphy K. et Weaver C., 2017. Suite à leur activation, les LT deviennent des effecteurs à courte durée de vie (semaines) ou des cellules mémoires à longue durée de vie (années). Ces cellules mémoires ont la particularité d’établir une réponse rapide et efficace lors de la rencontre ultérieure de leur antigène. C’est au cours des réponses T secondaires, que d’autres CPA, dont les macrophages et les cellules B, jouent un rôle dans la présentation d’antigènes aux LT effecteurs. Selon leur degré de différenciation, les LT modifient l’expression à leur surface du récepteur à chimiokines CCR7, indispensable pour la migration des LT au ganglion lymphatique, et de l’isoforme RA ou RO du CD45. Ainsi, il est possible de discriminer les souspopulations de LT selon l’expression de ces deux urs: LT naïfs (CCR7+CD45RA+), LT centraux mémoires (CCR7+CD45RA-), LT effecteurs mémoires (CCR7-CD45RA-) et LT effecteurs en différenciation terminale (CCR7-CD45RA+). De même, l’expression d’autres molécules de co-stimulation, telles que CD27 et CD28 caractérisent des populations moins différenciées et permettent l’identification de sous-populations intermédiaires (Appay et al., 2002). 1.2.1) Les fonctions des lymphocytes T CD4+
Les lymphocytes T CD4+ conventionnels aussi appelés lymphocytes Th ont un rôle « auxiliaire » dans les réponses immunitaires menés par d’autres composants cellulaires, tandis que les lymphocytes T « régulateurs » (Treg) participent à la tolérance et à la limitation des réponses immunitaires. Ces sous-populations de cellules T CD4+ se différencient selon leur profil d’expression de cytokines associées à un facteur de transcription spécifique qui détermine leur fonction (Figure 4).
Figure 4. Caractéristiques des sous-populations des lymphocytes T CD4+. Source: « Global overview of T helper cell differentiation» modifié d’après Stadhouders R., Lubberts E. et Hendriks R., 2018.
Les cellules Th1 sont caractérisées par l’expression du facteur de transcription Tbet-1, par leur production d’IFNγ et d’autres cytokines pro-inflammatoires (IL-2 et TNFα) et par l’expression de CD40L. Leur fonction principale est d’orchestrer les réponses cellulaires contre les pathogènes intracellulaires et les tumeurs. Par leur production d’IFNγ, les cellules Th1 vont activer les macrophages et autres CPA et orienter la commutation des immunoglobulines vers 17 des classes qui activent le complément et qui participent à l’ADCC. De même que l’IFNγ stimule l’expression de molécules du CMH, l’activation optimale des cellules T CD8+ et la différenciation des cellules T CD4+ en Th1. L’activation des CPA est également renforcée par l’interaction de CD40 avec CD40L et influencera également l’activation optimale des réponses T CD8+, notamment quand l’antigène élicite des réponses innées faibles (Abbas et al., 2017). Les cellules Th2 expriment le facteur de transcription GATA-3. Ces cellules expriment CD40L et orchestrent les réponses humorales contre les parasites extracellulaires par leur production de l’IL-4, de l’IL-5 et de l’IL-13. Les cellules Th2 participent également aux réactions allergiques car l’IL-4 etl’IL-5 orientent la production d’IgE (sensibilisation de mastocytes). Par leur production d’IL-4 et d’IL-13, les cellules Th2 vont induire la réparation de tissus par les macrophages. Les cellules Th17 jouent un rôle dans l’inflammation et les réponses cellulaires contre les pathogènes intracellulaires par la production de l’IL-17, l’IL-21 et l’IL-22, et sont régulées par le facteur de transcription RORγt (Stadhouders et al., 2018). Plus récemment, d’autres sous-populations de cellules Th ont été décrites par leur phénotype fonctionnel. Les cellules Th22, participent à l’inflammation et aux réponses cellulaires contre les pathogènes intracellulaires par la production de l’IL-22, du TNFα et de l’IL-13, régulées par le facteur de transcription AHR. Les cellules Th9, appelées ainsi du fait de leur production d’IL-9, ont été associées aux réponses contre des parasites mais leur facteur de transcription n’a pas encore été défini (PU.1?) (Stadhouders et al., 2018). Les cellules T folliculaires auxiliaires (Tfh) participent à la formation du centre germinatif (CG) et à la génération de plasmocytes par leur production de l’IL-21, de même qu’elles contribuent à la commutation de classe par leur production de l’IL-4 et de l’IFNγ. Il a été suggéré que le facteur de transcription associé à la différentiation des cellules Tfh est BCL6 (Hatzi et al. Les cellules Treg sont caractérisées par l’expression du facteur de transcription Foxp3 et leur fonction principale est d’inhiber les fonctions effectrices par la sécrétion de cytokines inhibitrices, telles que l’IL-10 et TGF-β ; et par l’engagement des points de contrôle immunitaire, tels que CTLA-4 et PD-1. Ces cellules se différencient au cours de la sélection 18 thymique (Treg naturels) mais peuvent aussi provenir des LT conventionnels périphériques (Treg induits) (Itoh et al., 1999; Masuyama et al., 2002).
1.2.2) Les fonctions des lymphocytes T CD8+
Les cellules T CD8+ sont les médiateurs de la cytotoxicité adaptative et leur rôle principal est d'éliminer de façon spécifique des cellules cible (cellules infectées, tumorales, allogéniques). Suite à leur activation, les cellules T CD8+ prolifèrent et se différencient en effecteurs cytotoxiques. Quand les CTL rencontrent leur cellule cible (TCR spécifique pour un peptide présenté par le CMH classe I), une synapse immunologique est formée par l’interaction de molécules d'adhésion (LFA-1-ICAM-1), suivie de l’interaction du TCR-CMH I-peptide. Ensuite, les CTL libèrent le contenu des granules cytotoxiques dans la synapse. Les protéines cytotoxiques contenues dans les lysosomes sont la perforine, qui perfore la membrane de la cellule cible; et les granzymes, qui traversent la membrane de la cellule cible par les pores créés par la perforine et activent la caspase 3 (Figure 5A). De plus, les CTL expriment FASL, le ligand du récepteur de mort FAS, et peuvent ainsi effectuer leur fonction cytotoxique de façon indépendante à la dégranulation (Figure 5B). Le résultat de ces deux mécanismes de cytotoxicité est l’apoptose de la cellule cible (Abbas et al. Figure 5. Mécanismes de cytotoxicité des CTL. A) Le CTL
rencontre sa
cellule cible
et se dégranule dans
la synapse
; la perforine induit la capture
des
granzyme
s par la cellule cible ré
sultant
en l’activation des caspases. B) Le CTL interagit avec sa cible par la voie FASL/FAS et induit l’apoptose par activation directe des caspases. Source: «Mechanisms of CTL-mediated killing of target cells » d’après Abbas A., Litchman A., et Pillai S., 2017. 19
Lors de sa rencontre avec leur cellule cible, les CTL produisent également des cytokines, dont l’IFNγ, le TNFα et l’IL-2. Comme mentionné plus haut, l’IFNγ est important pour l’activation des CPA et pour la différenciation des LTh, tandis que le TNFα joue un rôle dans le recrutement de macrophages et de lymphocytes dans le site inflammatoire. L’IL-2 est une cytokine centrale pour les cellules T CD4+ et T CD8+ car elle est un des signaux indispensables pour l’activation, la survie, la prolifération et la différenciation des cellules T.
1.3) Inhibition des réponses immunitaires et points de contrôle immunitaire
La réponse immunitaire est soumise à de nombreux mécanismes d’autorégulation pour maintenir l’homéostasie. Les principaux mécanismes pour limiter la réponse des cellules T et NK effectrices sont les points de contrôle immunitaire, l’apoptose (expression progressive de FAS) et les cytokines inhibitrices (IL-10, TGF-β) secrétées par les cellules régulatrices (Treg, Macrophages M2). Les points de contrôle immunitaire sont des molécules de co-stimulation activatrices ou inhibitrices progressivement exprimées par les cellules T et NK afin de limiter leur activation et l’intensité de leurs réponses. Une augmentation en l’expression de ces récepteurs peut avoir des séquences sur la capacité fonctionnelle de ces cellules et les rendre dysfonctionnelles ou fonctionnellement épuisées, c’est-à-dire qu’elles perdront progressivement leur capacité de produire des cytokines et/ou de tuer une cible cellulaire par cytotoxicité. Dans le cas des cellules NK, l’épuisement fonctionnel est un concept encore récent qui reste moins bien défini car ces cellules présentent une grande variété de phénotypes (différentes combinaisons et intensités d’expression des différents récepteurs) du fait que leur activation dépends de l’action combinée de plusieurs récepteurs activateurs et inhibiteurs (Elliott and Yokoyama, 2011). Ainsi, une définition de l’épuisement des cellules NK inclut la surexpression des récepteurs inhibiteurs accompagnée d’une diminution de l’expression des récepteurs d’activation, ce qui résulte en une altération fonctionnelle (Figure 6) (Bi and Tian, 2017; Sivori et al., 2019).
20 Figure 6. Phénotype d’épuisement des cellules NK. Le phénotype d’épuisement d’une cellule NK est caractérisé par la dérégulation de l’expression des récepteurs activateurs et inhibiteurs: une faible expression des récepteurs activateurs, une forte expression des récepteurs inhibiteurs et la perte progressive des fonctions. Modifié de « Natural Killer cell exhaustion » d’après Bi J. et Tian Z., 2017.
Le
mécanisme d’épuis
ement des cellules NK implique également la confluence de plusieurs voies de régulation négative présentes dans le microenvironnement (Bi and Tian,
2017
; Wherry and Kurachi,
2015
). Au cours des infections chroniques et de certains cancers, la cellule cible peut augmenter ou diminuer l’expression d’un ligand, ce qui module l’expression et l’activité de son récepteur sur la cellule NK. Par exemple, la surexpression de HLA-E augmente l’activité inhibitrice de NKG2A, tandis que la surexpression de MICA/B peut favoriser un épuisement mené par l’activation constante de la cellule NK par l’intermédiaire de NKG2D (Bi and Tian, 2017). De nombreux points de contrôle des cellules T ont été décrits, dont les récepteurs activateurs CD28 et CD27 mentionnés plus haut, et les récepteurs inhibiteurs CTLA-4 (cytotoxic T lymphocyte associated protein 4 ou CD-152), PD-1 (program death ligand 1 ou CD279) et Tim-3 (T-cell immunoglobulin and mucin containing protein-3 ouCD366) (Figure 7) (Mahoney et al., 2015). Ces récepteurs inhibiteurs sont progressivement exprimés après l’activation des lymphocytes T de façon physiologique et servent à contrebalancer les molécules de co-stimulation activatrices pour limiter les réponses T et maintenir l’homéostasie entre immunité et tolérance (Abbas et al., 2017; Granier et al., 2018). Cependant, dans un contexte de stimulation antigénique chronique, où la charge antigénique est élevée, les cellules T peuvent éprouver une activation robuste qui favorise l’augmentation de l’expression de ces récepteurs inhibiteurs (Apetoh et al., 2015; Baitsch et al., 2012; Granier et al., 2018). De même, la co-expression de plusieurs récepteurs inhibiteurs dans la surface de la cellule multiplie les signaux inhibiteurs et résulte en une inhibition générale de la signalisation du TCR. Ainsi, il a 21 été observé que seule la surexpression de PD-1 n’aboutit pas en une inhibition fonctionnelle. En revanche, la co-expression de PD-1 et TIM-3 caractérise les LT CD8+ dysfonctionnels dans certains contextes pathologiques (Anderson, 2014; Apetoh et al., 2015; Granier et al., 2018). Les premières fonctions inhibées sont la capacité de produire plusieurs cytokines simultanément, notamment l’IL-2, et la capacité de proliférer; ensuite, la production de TNFα, des chimiokines, d’IFNγ et la dégranulation sont altérées (Apetoh et al., 2015; Wherry and Kurachi
, 2015). Figure 7 Molécules de co-stimulation activatrices et inhibitrices des cellules T. Source : « T cell activation is a multiple-signal process. » d’après Mahoney K.,Rennert P. et Freeman G., 2015. 2) La transplantation en France et dans le monde
La transplantation d’organe solide (TOS) ou de cellules souches hématopoïétiques (TCSH) représente un traitement de choix de la défaillance d’organe en phase terminale (Allison, 2016) et de nombreuses maladies hématologiques engageant le pronostic vital (Niederwieser et al., 2016). En France, environ 5 800 TOS et 5200 TCSH sont effectuées chaque année (Agence de la Biomédecine, 2018) parmi les 230 000 transplantations réalisées au niveau mondial dans plus de 80 pays (Global Observatory on Donation and Transplantation (GODT), 2018). Toutefois, la greffe d’un organe ou d’un tissu étranger au « soi » peut induire des maladies d’origine immunitaire telles que le rejet de greffe et la maladie du greffon contre l’hôte. En effet, des molécules polymorphes entre le donneur et le receveur, telles que les protéines du HLA, peuvent stimuler une réponse immunitaire adaptative médiée par les lymphocytes contre l’organe greffé. A l’inverse, les lymphocytes contenus dans la greffe peuvent développer des réponses contre les tissus du receveur. Pour cette raison, de nombreuses stratégies thérapeutiques ont été développées afin de prévenir le rejet de greffe.
2.1) Le traitement immunosuppresseur
En transplantation, différents protocoles d’immunosuppression (IS) sont utilisés et adaptés avant, pendant et après la greffe, pour moduler le système immunitaire, favoriser la prise de greffe et prévenir ou traiter le rejet du greffon (Allison, 2016). Chaque type de transplantation présente ses particularités et le choix, les posologies et la durée du régime immunosuppresseur sont adaptés à ces spécificités. Par exemple, ce sont pour les greffes d’organe multiple, cœur et poumon que les régimes d’IS sont les plus lourds ( Les mécanismes d’immunosuppression utilisés actuellement incluent: la déplétion des leucocytes, l’altération du trafic lymphocytaire dans et vers les organes lymphoïdes secondaires, ainsi que le blocage de la fonction et des voies d’activation des lymphocytes. (Cajanding, 2018a). Ils contribuent donc à atténuer l’activité du système immunitaire en ciblant les LT et les LB, qui sont les principaux médiateurs du rejet cellulaire (cytotoxicité contre le greffon) et humoral (anticorps contre le greffon) (Karahan et al., 2017; Scheffert and Raza, 2014). Toutefois, bien d’autres populations leucocytaires contribuent au rejet et sont aussi affectées par les agents immunosuppresseurs (Allison, 2016; Cajanding, 2018a; Coelho et al., 2012; Neudoerfl et al., 2013; van Sandwijk et al., 2013). Les grandes familles 23 d’immunosuppresseurs utilisées actuellement dans les protocoles d’induction, puis dans la maintenance et la prévention du rejet aigu et chronique sont décrites dans le Tableau 1.
Tableau 1. Types d’immunosuppresseurs utilisés en transplantation Famille Protocole Molécules Induction Prednisone Corticostéroïdes Maintenance Prednisolone Rejet aigu ATG Agents Induction biologiques : Rejet aigu -Déplétants résistant aux stéroïdes OKT3 Induction Daclizumab -Non déplétants Basiliximab Inhibiteurs de la calcineurine Leucocytes Cible moléculaire Gènes associées à la réponse immunitaire Lymphocytes Molécules associées aux thymocytes Lymphocytes T Lymphocytes T CD3 (TCR) CD25 (IL-2) Induction Bélatacept Maintenance Lymphocytes CD80/86 (activation) Maintenance Ciclosporine Tacrolimus Lymphocytes NFAT/ AP-1 (IL-2) Maintenance Sirolimus Evérolimus Azathioprine Maintenance Mycophénolate Antimétabolites mofétil
sodique D’après Moini M., Schilsky M. et Tichy E., 2015. Inhibiteurs de mTOR Cible cellulaire Leuc
ocyte
s
Leuc
ocytes Lymphocytes mTOR
(
cycle cellulaire)
synthèse de novo des purines (cycle cellulaire)
Le traitement d’induction est principalement constitué d’agents biologiques et, parfois, de corticostéroïdes administrés avant, pendant et/ou immédiatement après la transplantation. Son objectif est d’induire une immunosuppression intense pendant une courte période de temps (Allison, 2016) afin de prévenir le rejet aigu. Les corticostéroïdes sont des analogues synthétiques des glucocorticoïdes produits dans les glandes surrénales et ils ont un effet antiinflammatoire immédiat sur plusieurs populations leucocytaires (Ayyar and Jusko, 2020). Cet effet est le résultat de plusieurs mécanismes génomiques et non génomiques qui résultent de l’inhibition de la production des cytokines pro-inflammatoires, de l’arrêt de la prolifération et de l’induction de l’apoptose (van Sandwijk et al., 2013) (Tableau 1). Les lymphocytes T sont les cellules les plus impactées par les corticostéroïdes et leur nombre diminue rapidement dans 24 le sang périphérique après ce traitement. Pour cette raison, les corticostéroïdes sont utilisés pour l’induction et le maintien de l’immunosuppression, ainsi que pour le traitement du rejet aigu (Scheffert and Raza, 2014; Sitruk et al., 2018). Les traitements immunosuppresseurs ciblent principalement les lymphocytes T (Gaber et al., 2013), compte tenu de leur rôle prédominant dans le rejet aigu de greffe (Scheffert and Raza, 2014). Parmi les traitements immunosuppresseurs, on trouve les agents déplétants dont les immunoglobulines polyclonales anti-Thymocytes (ATG), qui ciblent les lymphocytes en général, et les anticorps monoclonaux anti-CD3, qui ciblent le récepteur des lymphocytes T (CD3-TCR) (Tableau 1). Ces agents sont responsables d’une lymphopénie T profonde, prédominant sur les cellules T CD4+. La reconstitution immunitaire LT CD4+ est lente, pouvant être partielle jusqu’à plusieurs années après le traitement (Glowacki et al., 2009; Müller et al., 1997; Pankewycz et al., 2011). Plus récemment, des anticorps monoclonaux ciblant les voies d’activation des lymphocytes T ont été commercialisés. Quand un lymphocyte T naïf reconnaît des allo-antigènes présentés par une CPA, il a besoin de deux signaux supplémentaires pour qu’il puisse être complètement activé et ensuite proliférer sans quoi il devient anergique (Figure 8). Le deuxième signal après la reconnaissance de l’alloantigène correspond à l’interaction de molécules co-stimulatrices qui amplifient les signaux d’activation et le troisième signal est la production de cytokines nécessaires pour la prolifération de la cellule (Abbas et al., 2017).
Figure 8. Activation des cellules T naïves. A) la CPA présente des antigènes au LT naïf en absence des costimulation B7/B8 (CD80/86) et échoue à activer le LT naïf ; le LT devient tolérant où anergique. B) la CPA présente des antigènes au LT naïf en présence de costimulation B7/8 (CD80/86) et CD28 (signal
permettant la production de cytokines. L‘IL-2 (signal 3) stimule la différenciation et la prolifération du LT naïf en LT effecteur. Source: « Functions of costimulators in T cell activation » d’après Abbas A., Litchman A., et Pillai S., 2017. 25 L’anticorps monoclonal bélatacept (anti-CD80/86) agit sur le deuxième signal en bloquant l’interaction des molécules costimulatrices CD28 (LT) et CD80/86 (APC) (Larsen et al., 2005). De même que les anticorps monoclonaux Daclizumab et Basiliximab ciblent le CD25 (LT), qui est la chaine alpha du récepteur à haute affinité de l’IL-2, bloquant ainsi le troisième signal (Cajanding, 2018a) (Tableau 1). Ces deux stratégies sont souvent combinées pour les thérapies de maintenance basées sur le Bélatacept (Perez et al., 2018). L’immunosuppression de maintenance est généralement poursuivie à vie mais avec un caractère évolutif qui s’adapte de façon personnalisée au patient selon la tolérance du médicament et ses effets secondaires, avec l’objectif d’atteindre les doses minimales permettant un équilibre entre immunité et maintien optimal de la greffe (Gaber et al., 2013). La combinaison de plusieurs molécules avec différents mécanismes d’action permet de réduire leur dose et de limiter leur toxicité ; de ce fait, la plupart des protocoles de maintenance sont des trithérapies composées d’un corticostéroïde, d’un inhibiteur de la calcineurine et d’un antimétabolite (Hornick and Rose, 2006; Sitruk et al., 2018). Les rôles complémentaires des immunosuppresseurs sont expliqués dans la Figure 9.
Figure 9. Mécanismes d'action des Immunosuppresseurs. Source: « The cellular site of action of the immunosuppressive agents commonly used in solid organ transplantation » d’après Moini M., Schilsky M. et Tichy E., 2015. IL-2Ra, chaine alpha du récepteur de l’IL-2 (aussi connu comme CD25); IL-2, Interleukine-2; CsA, cyclosporine A; TAC, Tacrolimus; AZA, Azathioprine; MMF,
cophénolate mofétil. Les inhibiteurs de la calcineurine, cyclosporine A (CsA) et Tacrolimus (TAC) sont des macrolides d’origine fongique qui forment des complexes avec des protéines chaperonnes appelés immunophilines, dont les cyclophilines et les protéines de la famille FKBP (Abbas et al., 2017; Cajanding, 2018a). Les complexes CsA-cyclophiline ou TAC-FKBP se fixent à la calcineurine et inhibent son activité enzymatique sur le facteur nucléaire d’activation des cellules T (NFAT) et de la protéine d’activation 1 (AP-1), impliqués dans la synthèse d’IL-2 (Tableau 1). En conséquence, l’inhibition de ces facteurs de transcription en aval de l’activation du TCR empêche la maturation, la différenciation et la prolifération des LT (Cajanding, 2018a; Gaber et al., 2013). De même, la synthèse d’IFN-γ et la dégranulation sont globalement affectées au sein des différentes populations lymphocytaires (Coelho et al., 2012). Une autre famille d’immunosuppresseurs agissant sur la prolifération des lymphocytes sont les inhibiteurs de mTOR : Sirolimus et son dérivé, Everolimus. Ces deux molécules sont des macrolides d’origine fongique, similaires au Tacrolimus, qui forment des complexes avec des immunophilines FKBP (Coelho et al., 2012). A la différence du TAC, les complexes Sirolimus-FKBP vont se fixer sur mTOR (Tableau 1), une sérine/thréonine kinase qui régule plusieurs processus cellulaires dont la transcription et la traduction des ARNm liés à la synthèse des cytokines IL-2 et IL-15 et de plusieurs facteurs de croissance indispensables pour le cycle cellulaire.(Hay, 2004) Ainsi, les lymphocytes activés sont arrêtés dans la phase G1 du cycle cellulaire, entrainant une anergie par défaut du troisième signal (Cajanding, 2018a). De plus, mTOR est exprimée de façon ubiquitaire dans les cellules hématopoïétiques (Human Protein Atlas disponible depuis http://www.proteinatlas.org), donc son inhibition impacte la croissance, la différenciation, et la prolifération de toutes les cellules du système immunitaire. La dernière catégorie des immunosuppresseurs de maintenance est celle des antimétabolites, dont l’azathioprine, le mycophénolate mofétil et le mycophénolate sodique. Ces molécules bloquent la synthèse de novo des purines, nécessaires pour la réplication de l’ADN au cours du cycle cellulaire (Allison, 2016) (Tableau 1). L’azathioprine a été un des premiers immunosuppresseurs utilisés en transplantation d’organe mais son utilisation est actuellement limitée en raison d’une toxicité trop importante. L’azathioprine (AZA) est métabolisé en 6-mercaptopurine et s’incorpore dans l’ADN durant sa réplication en même temps qu’elle inhibe la production de nucléosides, ce qui mène à des erreurs dans la réplication de l’ADN et des cassures chromosomiques (Cajanding, 2018a). D’autre part, l’acide mycophénolique (MMF), métabolite actif du mycophénolate, est un inhibiteur sélectif de la 27 synthèse de novo des bases nucléotidiques guanine car il bloque l’activité enzymatique de l'inosine monophosphate déshydrogénase. Son effet cible principalement les lymphocytes T et B car ils ne possèdent pas la voie de sauvetage pour la synthèse des bases nucléotides. Les lymphocytes activés sont ainsi arrêtés dans la phase S du cycle cellulaire, ce qui entraine l’arrêt de la prolifération et induit l’apoptose (Coelho et al., 2012). Néanmoins, le blocage de la synthèse de novo affecte indirectement la production des anticorps, la maturation des cellules dendritiques et l’expression de molécules d’adhésion ; en conséquence la présentation d’antigènes et le recrutement de leucocytes dans les sites inflammatoires sont également impactés (Allison and Eugui, 2005). De plus, une inhibition de la prolifération et de la cytotoxicit des cellules NK a été observé in-vitro (Ohata et al., 2011).
| 50,544
|
25/tel.archives-ouvertes.fr-tel-01883801-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,351
| 15,191
|
Liens entre niveaux perceptifs, performances auditives et réponses électrophysiologiques de la cochlée et du tronc cérébral suite à la stimulation électrique délivrée par les implants cochléaires MED-EL sciences
électrique vrée par les implants cochléaires MED-EL Devant le jury présidé par le Pr. Anne CHARPIOT (PU-PH) et composé
de : Professeur
Anne CHARPIOT Docteur Fabrice GIRAUDET Docteur Anne CACLIN Docteur Olivier MACHEREY - PU-PH MCU CR1 CR1 Professeur Eric TRUY - PU-PH Professeur Hung THAI-VAN - PU-PH - de Strasbourg Clermont Auvergne Lyon 1 d'Aix Marseille - Université Lyon 1 - Université Lyon 1 Rapporteure Rapporteur Examinatrice Examinateur Directeur de thèse Co-directeur de thèse UNIVERSITE
CLAUDE BERNARD
- L
YON
1 Président de l'
Universit
é
Polytech Lyon Directeur : M. N.
LEB
OISNE De l'autre côté de la
Forêt
, la Princesse
Colomb
de la lune – R. Barja
vel
A
ton
E
N.D. Remerciements
Je remercie tout d'abord Anne Charpiot et Fabrice Giraudet de juger ce travail en tant que rapporteurs dans les conditions que je leur impose mais aussi Anne Caclin et Olivier Macherey d'avoir accepté de faire partie de mon jury de thèse à une heure si matinale. Je remercie Eric Truy d'avoir été à l'initiative de ce projet et de m'avoir ouvert les portes de la recherche sur l'implant cochléaire. Je le remercie pour son soutien inconditionnel, l'attention et le temps qu'il m'a accordé lorsque j'en avais besoin. Je remercie Hung Thai-Van de m'avoir accueilli dans son service et permis d'utiliser à ma convenance le matériel disponible. Je le remercie également d'avoir encouragé l'entreprise de diverses thématiques de recherche innovantes. Je remercie MED-EL France d'avoir financé ce travail et de m'avoir accordé les moyens matériels indispensables à la réalisation des travaux présentés dans cette thèse. i Je remercie tous les patients qui ont accepté de donner de leur temps pour participer aux protocoles expérimentaux, souvent à des horaires improbables. Je remercie « Les Filles », Faten et Aurélia que j'aurai juste croisé, Cynthia, Nathalie et Virginie que j'ai pu mieux connaître. Merci pour votre soutien, vos conseils et vos relectures. Un immense merci à Fabien dont le professionnalisme n'a d'égal que la bonne humeur. Tu m'as tout appris et as apporté ton savoir-faire indispensable à la réalisation du travail ici présenté. Merci pour ton « humeur du vendredi » parfois dès le lundi. Je te souhaite le meilleur parce que tu n'en mérites pas moins. Je remercie « Lapin », une vraie rencontre que je suis heureux d'avoir fait malgré « ton visage ingrat », ton humour aussi douteux que tes goûts musicaux, et ton étrange mais néanmoins pointue connaissance de certains domaines lexicaux anglophones, enfin Merci pour ta patience et ton oreille attentive. Je te souhaite une belle réussite pour ta thèse. Merci à tous ceux qui ont cru en moi, m'ont encouragé et soutenu : Rélie, Léa, mon couz' et sa p'tite famille, Nathan et Biche, Jé, JB, Pwany et tous ceux que j'oublie. Je pourrais faire un chapitre juste pour dire combien vous connaître est une chance et m'a permis de tenir dans les moments difficiles. Quelque part entre les amis et la famille : Merci à toi Nouche, merci de prendre soin de nous et de prêter une oreille attentive à ta fille quand je lui pèse trop, vivement le ski! Merci à ma famille proche. Merci à mes parents tout simplement parce que je leur dois ce que je suis aujourd'hui. Merci Vovo d'être un vovo si génial, merci pour la confiance que tu m'as toujours témoignée, être à sa hauteur est une immense source de motivation. Merci pour tout le savoir que tu m'as apporté, c'est dans ce terreau fertile que ma curiosité est née. Merci ma Boulette, je l'écris ici parce que je n'ai jamais été très fort pour te le dire : tu as toujours été là pour moi et tu comptes à mes yeux comme nulle autre. Merci Ma Nine, tu as apporté à ma vie l'amour, la paix et une force que je n'aurai pu imaginer. Je n'en dirai pas plus, ce que tu représentes pour moi est tellement au-delà des mots. iii Résumé
Les surdités neurosensorielles sont caractérisées par un déficit fonctionnel de la cochlée ou du système nerveux auditif nuisant à la perception auditive. Dans le cas de surdité neurosensorielle sévère à profonde, il est possible de réhabiliter l'audition au moyen d'implants cochléaires (IC). Ces dispositifs transmettent le son encodé sous forme de stimulations électriques aux fibres nerveuses situées à différents niveaux de la cochlée, restituant ainsi une audition tonotopique partielle. Cependant, les bénéfices tirés de l'implantation varient largement entre les sujets et impliquent un suivi régulier et contraignant pour contrôler leur perception par l'IC et optimiser le réglage de celui-ci. Afin d'évaluer ces disparités, de mieux comprendre leurs origines et de proposer de meilleurs réglages des IC, de nombreux travaux ont été menés sur l'utilisation de mesures électrophysiologiques objectives de l'audition des implantés. Cette thèse porte sur l'étude des liens entre des mesures électrophysiologiques du système auditif de la cochlée au tronc cérébral, les niveaux psychoacoustiques de perception utilisés pour les réglages et les performances auditives d'adultes utilisateurs d'IC MED-EL ®. La majeure partie des travaux s'est intéressée aux ECAP (Electrically-evoked compound action potentials), reflet de l'activité synchrone des neurones auditifs cochléaires en réponse à la stimulation électrique délivrée par l'IC. Les ECAP ont été enregistrés soit lors de l'implantation, soit chez des utilisateurs expérimentés afin d'évaluer leur intérêt en tant que prédicteurs des niveaux de perceptions. Nos travaux montrent que malgré de grandes variations interindividuelles, les ECAP sont liés aux niveaux de perception. Cette relation attendue, car e chez d'autres fabricants, ne permet cependant pas encore une prédiction suffisamment précise des niveaux de perception implémentés dans les réglages probablement en raison des différences entre les stimulations délivrées par l'IC en fonctionnement classique et celles utilisées pour le recueil d'ECAP. La télémétrie inverse permettant le recueil d'ECAP autorise aussi la mesure de l'impédance de chaque électrode, c'est à dire son opposition à transmettre le signal électrique qui lui est adressé. Les IC MED-EL ® présentent la particularité de présenter les données brutes sous forme de matrice de voltage pouvant servir à estimer la diffusion du courant autour de chaque électrode, au niveau de l'interface bioélectrique. Mots-clés : implants cochléaires, électrophysiologie, mesures objectives, perception auditive vi
Abstract Sensorineural hearing loss (SNHL) is a type of deafness due to the dysfunction of the cochlea or the auditory nervous system. Cochlear Implant (CI) is a surgically implanted device used to provide a sense of sound to people with severe to profound SNHL. CI transmits sound signal coded in electrical stimulation to the cochlear nerve at different cochlear depths, and thus partially restores a tonotopic hearing. However, as CI benefits vary widely among subjects, a regular and binding monitoring is needed in order to control subject perception and to optimize the CI settings. Many previous studies focused on the use of objective electrophysiological measures to quantify and understand the origin of these outcome differences and to propose a better CI fitting. This thesis investigates the links between electro-physiological responses of the cochlea and the brainstem, the psychoacoustic levels used for CI fitting and the hearing performances of MED-EL® CI adult users. The main part focused on the electrically evoked compound action potentials (ECAP), which reflect the synchronous activity of cochlear auditory neurons in response to the electrical stimulation delivered by CI. These were recorded either during implantation surgery or in experienced users to evaluate their usefulness as predictors of the hearing levels. Our work shows that despite broad variations between users, ECAPs can be related to perception levels. However, this relationship, known with CI from other manufacturers, does not allow an accurate enough prediction of the perception levels used to program the CI, likely because the stimulations delivered by the CI in conventional operation and those used for ECAP recording are not the same. Reverse telemetry used to collect ECAP also allows the measurement of the impedance of each electrode, reflecting its ability to transmit the electrical signal that is addressed to it. In MED-EL® CIs raw are displayed in voltage matrices and can be used to estimate the spread of current around each electrode, at the bioelectric interface level. With the hypothesis that larger current spread would imply greater inter-channel interactions and thus harm the perception of the complex sounds of speech, a second part of the work aimed to evaluate the relations between the current spread, measured from voltage matrices, and speech recognition. The results indicate that speech understanding is related to this measurement of intra-cochlear current diffusion. Keywords : cochlear implant, electrophysiology, objective measure, auditory perception
viii Liste des abréviations et définitions
• ABR/EABR : auditory brainstem response, potentiel évoqué des relais auditifs du tronc cérébral, potentiel de champs reflétant l'activité neurale synchrone des différents relais au passage d'un signal acoustique, permettent la mise en évidence de l'interaction binaurale (BIC) entre certains relais, appelés EABR lorsqu'évoquée électriquement par l'implant cochléaire • AGF : auditory growth function, technique d'acquisition d'ECAP consistant à représenter l'amplitude des ECAP en fonction de l'intensité de la stimulation ; permet de déterminer le seuil d'ECAP c'est-à-dire la stimulation minimale permettant l'émergence d'une réponse ECAP. • ART : auditory nerve response telemetry, nom de la technique de mesure et de recueil des ECAP pour les implants cochléaires de la marque MED-EL • BIC : binaural interaction component, mesure électrophysiologique de l'interaction binaurale au niveau du tronc cérébral, se calcul comme étant la différence entre la somme des signaux évoqués par la stimulation de chaque oreille et le signal obtenu lors de leur stimulation simultanée • CAP/ECAP : compound action potentiel, ici potentiel de champ mesuré au niveau extracochléaire et reflétant l'activité synchrone des neurones cochléaires, appelés ECAP lorsqu'évoqués électriquement par l'implant cochléaire • CC/CCE/CCI : cellule ciliée/externe/interne • dB HL : decibel hearing level ; unité de mesure audiométrique de l'intensité sonore d'un son dont le 0 correspond au niveau moyen minimum nécessaire à évoquer ce son chez le sujet jeune normo-entendant • dB SPL : decibel sound pressure ; unité de mesure physique de la pression acoustique dont le 0 correspond, en condition standard, à 1pW/m2 soit 20μPa. NB. Le niveau de pression acoustique nécessaire à évoquer un son pur chez le sujet jeune normo-entendant diffère en fonction de la fréquence : le seuil de perception moyen est de 10 dB SPL à 500 Hz, de 0 dB SPL à 2 000 Hz et de 20 dB SPL à 8 000 Hz. Cette variation explique le recours à l'échelle de dB HL qui se base sur le niveau de perception moyen de chaque fréquence pour mesurer l'audition plutôt que celle des dB SPL qui mesure une grandeur physique. • HINT : Hearing In Noise Test, test audiométrique évaluant la perception de phrases en milieu bruité • IC : implant cochléaire ix • IFT : impedance field telemetry, nom de la technique de mesure des impédances pour les implants cochléaires de la marque MED-EL • ITD/ILD : différence interaurale de temps/d'intensité • LMM : linear mixed model, modèle statistique de régression linéaire pour lesquels il est possible de déterminer une ou des variable(s) explicative(s) à effet fixe (l'effet est le même pour toutes les mesures) et une ou des variable(s) explicative(s) à effet aléatoire (l'effet peu varier entre les mesures) • MCL : maximum comfortable loudness level ; niveau maximal de stimulation ne provoquant pas de sensation d'inconfort ou de douleur • PE : porte-électrode, composant de la partie interne de la partie interne de l'implant portant les électrodes de stimulations et introduit dans la cochlée • PPS : pulses par secondes, unité de mesure de la cadence de stimulation des implants égale au hertz • RSB : ratio signal sur bruit ; lorsqu'un signal sonore d'intérêt est présenté simultanément avec un bruit, le RSB désigne la différence entre le niveau sonore du premier et le niveau sonore du bruit, tous les 2 en dB HL • SRT50 : speech reception threshold ; niveau d'intensité permettant 50% de compréhension de la parole ; mesuré en dB HL • THR : hearing threshold ; niveau de stimulation minimal évoquant une sensation auditive (seuil de perception) x
Liste des figures et tableaux Figure 1 : Champ auditif de l'homme présentant le niveau de perception (THR, en vert) et de confort (MCL, en rouge) en dB SPL et mPa en fonction des fréquences audibles (comprises entre 20 et 20 ) 3 Figure 2 : Variation de l'intensité sonore (unité relative) en fonction du temps (en s) pour un enregistrement vocal 4 Figure 3 : Anatomie de l'oreille. 5 Figure 4 : Coupe longitudinale de la cochlée et détail au niveau d'un tour cochléaire. 6 Figure 5 : (a) Amplitude de déplacement de la membrane basilaire en fonction de la fréquence du son auquel elle est soumise. (b) Schéma présentant les variations de largeur et la répartition des fréquences (tonotopie) le long de la membrane basilaire. 8 Figure 6 : Schéma de l'organe de Corti. 9 Figure 7 : Coupe de l'organe de Corti montrant le décalage entre les points de pivotement des membranes basilaire et tectoriale. 10 Figure 8 : Schéma des stéréocils des cellules ciliées mettant en évidence les canaux ioniques à cation et les liens apicaux responsables de leur ouverture. 11 Figure 9 : Schéma du pattern de décharge mesuré sur un nerf afférent d'une cellule ciliée de la ligne latérale du poisson en fonction des mouvements des stéréocils. 12 Figure 10 : Effet de l'amplification par les cellules ciliées externes sur l'amplitude maximale des mouvements de la membrane basilaire. 13 Figure 11 : Illustration (a) des différences d'innervation entre les cellules ciliées et (b) des variations du nombre de cellules ciliées et des neurones de type I entre la base (0) et l'apex (1) de la cochlée 15 Figure 12 : Schéma explicatif du codage de l'intensité par le complexe CCI - neurones de type I afférents. 16 Figure 13 : Schéma des voies auditives de la cochlée jusqu'au cortex auditif mettant en évidence les relais auditifs et leurs connexions. 17 Figure 14 : Schéma mettant en évidence (a) la différence de délai de perception (ITD pour inter time difference) et (b) d'intensité (ILD pour inter level difference) entre les deux oreilles pour une source sonore située hors de la ligne médiane (en pointillé). 22 Figure 15 : Schéma illustrant l'intégration binaurale des ITD par les neurones de l'olive supérieure médiane. 23 Figure 16 : Schéma illustrant (a) l'intégration binaurale des ILD par les neurones de l'olive supérieure latérale et (b) le pattern de décharge des olives supérieures latérales gauche et droite en fonction des ITD. 24 Figure 17 : Photographie en microscopie électronique à balay de la surface de l'organe de Corti du rat (a) à l'état sain et (b) suite à un traumatisme sonore. 32 Figure 18 : Schéma d'un dispositif d'implant cochléaire. 36 xi Figure 19 : Illustration des interactions induites par la diffusion du courant depuis les électrodes intracochléaires 39 Figure 20 : Illustration du principe de recueil utilisé pour le calcul de l'impédance d'une électrode. 49 Figure 21 : Exemple de matrice de voltage obtenue lors d'une mesure d'impédance avec MAESTRO 6. 50 Figure 22 : Schéma du fonctionnement du recueil des ECAP par télémétrie inverse. 52 Figure 23 : Illustration des techniques de réduction de l'artefact de stimulations lors du recueil d'ECAP par (a) stimulation alternée et (b) forward-masking. 53 Figure 24 : Tracé d'un ECAP. 54 Figure 25 : Exemple de fonction de croissance de l'amplitude « AGF » recueillie avec un implant cochléaire MED-EL en utilisant le logiciel MAESTRO 6. 55 Figure 26 : (a) Schéma de la voie auditive principale présentant les structures d'où émergent les ABR et (b) exemple de tracé d'ABR obtenu chez le sujet normo-entendant. 63 Figure 27 : Tracés EABR permettant la mise en évidence de la composante d'interaction binaurale (BIC) obtenue chez le sujet normo-entendant. 65 Figure 28 : Exemple des voltages mesurés en fonction de l'écart relatif à l'électrode stimulante. 71 Figure 29 : Représentation des étapes du traitement des données des matrices de voltage pour le sujet S-35. 73 Figure 30 : Nuage de points des SRT50 (en dB, en bleu) et de l'intelligibilité (en %, en rouge) en fonction du coefficient exponentiel de diffusion calculé depuis les matrices de voltages pour 33 sujets (a) et pour les 21 sujets avec 12/12 électrodes actives (b). 75 Figure 31 : Exemple d'AGF (a) exploitable et (b) non exploitables 84 Figure 32 : (a) Histogrammes des pourcentages d'AGF exploitables pour chaque site pour les deux populations étudiées. (b) Pourcentage du nombre d'AGF exploitables par sujet au sein de chacune des populations
88 Tableau 1 : Résultats des modèles mixtes linéaires de prédiction des MCL programmés lors des 4 premiers réglages à partir d'AGF acquises lors de la chirurgie, des impédances, du site de stimulation
des données démographiques.
90 Figure 33 : Histogrammes des erreurs relatives des modèles prédictifs des MCL programmés à l'activation (J0) et 8 jours après celle-ci (J8).
91 Tableau 2 : Résultats des modèles mixtes linéaires de prédiction du MCL programmé (P-MCL), du MCL mesuré (M-MCL) et du THR mesuré (M-THR) à partir des AGF acquise le jour du réglage, des impédances, du site de stimulation et des données démographiques.
93 Figure 34 : Histogrammes des erreurs relatives des modèles prédictifs du MCL programmé (PMCL, en rouge), du MCL mesuré (M-MCL, en bleu) et du THR mesuré (M-THR, en vert). 94 Tableau 3 : Résumé des facteurs d'intérêt pour la prédiction du MCL programmé (J0, J8, M1, M3 ; P-MCL), du MCL mesuré (M-MCL) et du THR mesuré (M-THR) à partir des AGF, des impédances, du site de stimulation données démographiques. 98
Figure 35 : Illustration des conséquences des asymétries d'in
sertion
chez les sujets implantés bilatéralement.
104
xii Figure 36 : Variations (a) de la sensibilité aux ITD et ILD et (b) de l'amplitude de la réponse BIC en fonction de l'écart d'appariement entre les électrodes stimulées. 105 Figure 37 : Schéma de la disposition du sujet et des haut-parleurs lors du test de localisation. 108 Figure 38 : Schéma des 2 conditions d'écoute testées pour la mesure de l'effet squelch de l'IC gauche. 110 Figure 39 : Exemple d'EABR obtenues chez le sujet S-6 pour le triplet 3-5. 111 Figure 40 : Exemple de tracés recueillis pour le patient S-6.
112 Tableau 4 : Récapitulatif des EABR exploitables.
113 Figure 41 : Courbes des réponses BIC pondérées de chaque patient en fonction de la distance relative au triplet de l'IC 2 apparié en fréquence.
114
Tableau 5 : Ré
sultats
du test de localisation.
115
Tableau
6 : Résultats
du
test HINT et mesures
de
l'effet squel
ch
. 116 xiii Table des matières Remerciements i Résumé v Abstract vii Liste des abréviations et définitions ix Liste des figures et tableaux xi Table des matières
xv Chapitre 1 : Les voies auditives de la cochlée au thalamus 1 I - La cochlée : transducteur mécano-électrique
1 1) Rappel : notions d'acoustique, perception et conduction du son au sein de l'oreille externe et moyenne 1 a. Notions d' coustique et de psychoacoustique 1 b. Perception et conduction du son jusqu'à l'oreille interne 4 2) La cochlée, organe neurosensoriel de l'audition de l'oreille interne 5 a. La membrane basilaire 7 b. Transduction mécano-acoustique : fonctionnement de l'organe de Corti et rôle des cellules ciliées 8 II - Les voies auditives au sein du tronc cérébral 17 1) Les relais auditifs du tronc cérébral 18 2) Intégration binaurale dans les relais du tronc cérébral 20 a. Les indices binauraux : Interaural Time Difference et Interaural Level Difference 21 b. Processus impliquant les mécanismes d'intégration binaurale 24
Chapitre 2 : Les surdités sévères et profondes et leur réhabilitation par l'implant cochléaire 27 I - Les surdités : prévalence, diagnostique, caractérisation, causes et réhabilitation 27
1) Classification des surdités et examens diagnostiques 28 a. Les différents types de surdité 28 b. Les degrés de surdité 29 2) Les surdités de perception, particularités et origines 31 II - Réhabilitation par l'implant cochléaire 33 1) Indications pour l'implantation cochléaire 33 2) Principe général de fonctionnement de l'implant cochléaire 35 3) Les stimulations délivrées par l'implant cochléaire et leurs effets excitateurs 37 a. Les caractéristiques des stimulations délivrées par l'implant cochléaire et leurs effets sur la perception auditive 37 b. Processus de l'excitation neurale suite aux stimulations électriques délivrées par l'implant cochléaire 38 c. Quelques limites à l'audition médiée par l'implant cochléaire 40 d. Facteurs de variation de la perception auditive médiée par l'implant 41 xv 4) Parcours de soins de l'implanté cochléaire 44
Chapitre 3 : Mesures électrophysiologiques de la cochlée et du tronc cérébral chez les patients implantés cochléaires 47 I - Les mesures électrophysiologiques intracochléaires 48
1) L'impédance et les matrices de voltage 48 a. Principe d'acquisition : 49 b. Matrice de voltage utilisée pour le calcul des impédances de chaque électrode : 50 c. Utilisation clinique : 50 2) Les ECAP : potentiels d'action composites évoqués électriquement 51 a. Principe d'acquisition : 51 b. Profil et caractéristiques des ECAP : 54 c. Séquences d'acquisition des ECAP et leur relation avec le tissu neural cochléaire :. 54 d. Facteurs de variation ECAP 56 e. Utilisation clinique 59 II - Les EABR : réponse électrophysiologique des noyaux du tronc cérébral 61 a. Principe d'acquisition : 63 b. Profil et caractéristiques des EABR : 64 c. Acquisition de la composante d'interaction binaurale BIC : 64 d. Utilisation clinique: 65
Chapitre 4 : Hypothèses et travaux expérimentaux
67 I - Relation entre diffusion intracochléaire du courant et performances auditives 69 1) Contexte 69 2) Matériel et méthode 72 a. Sujets 72 b. Procédures 72 c. Analyses statistiques 74 3) Résultats 74 a. Faisabilité 74 b. Corrélations entre voltage pondéré maximal et mesures d'intelligibilité 74 c. Corrélations entre coefficients de diffusion et mesures d'intelligibilité 75 4) Discussion 75 II - Relation entre ECAP et niveaux perceptifs 79 1) Contexte 79 2) Méthodologie 83 a. AGF 83 b. Sujets et données collectées 85 c. I - La cochlée : transducteur mécano-électrique 1) Rappel : notions d'acoustique, perception et conduction du son au sein de l'oreille externe et moyenne a. Notions d'acoustique et de psychoacoustique
Le son est la sensation auditive engendrée par des ondes de pressions acoustiques générées par une source mécanique et se propageant au sein d'un support ou milieu solide, liquide ou gazeux. Les ondes de pressions sonores se déplacent en faisant vibrer les molécules du milieu autour de leur position d'équilibre. Celles-ci transmettent cette vibration de proche en proche aux molécules voisines en s'entrechoquant avec elles sans transfert de matière. Comme toute onde, les ondes sonores peuvent être caractérisées par : leur phase, leur amplitude, leur fréquence et leur forme. La forme d'une onde sonore mono fréquentielle, donnée par l'amplitude en fonction du temps, est une sinusoïde dont l'amplitude et la fréquence sont les principales responsables des perceptions d'intensité et de hauteur sonore par l'auditeur. Outre les propriétés physiques des sons, étudiées en acoustique, la psychoacoustique s'intéresse à la perception de ceux-ci par l'auditeur. A la différence de l'acoustique, qui est l'étude objective des aspects physiques du son, la psychoacoustique est sujet-dépendant et rend compte de la perception propre à chaque individu. En psychoacoustique, les sensations subjectives de hauteur tonale et d'intensité sonore sont appelées respectivement tonie et sonie. Bien que sujet-dépendantes, des standards et valeurs de références de tonie et de sonie ont été 1 déterminés en moyennant les valeurs mesurées chez un grand nombre d'auditeurs normoentendant. Il est ainsi généralement considéré que le e audible, c'est-à-dire l'ensemble des fréquences audibles par l'homme, s'étend de 20 Hz à 16 kHz chez l'adulte et jusqu'à 20 kHz chez l'enfant. La tonie augmente en même temps que la fréquence sonore (en Hz), linéairement pour les sons dont les fréquences sont inférieures à 500 Hz, puis de façon logarithmique pour les sons de fréquences supérieures à 500 Hz. La sonie peut être caractérisée par plusieurs niveaux de pression acoustique mesurés en décibels hearing level (dB HL) : le seuil de perception (hearing threshold, abrégé par THR) qui est le niveau minimal d'intensité permettant la perception d'un son en l'absence d'autres sources sonores, et le niveau maximal de confort (maximum comfortable loudness level, abrégé MCL) qui est l'intensité la plus forte ne provoquant pas de sensations d'inconfort pour l'auditeur. La différence entre MCL et THR est appelée dynamique d'audition. 2 Figure 1 : Champ auditif de l'homme présentant le niveau de perception (THR, en vert) et de confort (MCL, en rouge) en dB SPL et mPa en fonction des fréquences audibles (comprises entre 20 et 20 kHz). Le seuil de perception et le niveau de confort minimum se situent aux alentours de 4 kHz. Plus les fréquences sont proches des limites du champ auditif, plus les THR et dans une moindre mesure les MCL, augmentent avec pour conséquence une plus faible dynamique d'audition. (d'après R. Pujol). Dans la nature, les sons -notamment ceux du langage- sont majoritairement multi fréquentiels et composés d'une combinaison d'ondes sonores de phases, d'amplitudes et de fréquences variées. L'enregistrement et la représentation de l'intensité en fonction du temps du signal de la parole mettent en évidence différentes composantes : les modulations d'amplitude comprises entre 2 et 50 Hz correspondent à l'enveloppe temporelle, celles entre 50 et 500 Hz à la périodicité, et celles supérieures à 500 Hz aux structures fines (Figure 2). L'enveloppe correspond au rythme syllabique (3-4 Hz) et est essentielle à la compréhension de la parole dans le silence. Les structures fines contribuent notamment à l'amélioration de la perception de la parole dans le bruit et à la distinction de certains éléments sonores du langage (phonèmes) dont l'énergie est concentrée autour des 3 kHz (Purves, 2013). La périodicité correspond à la hauteur fondamentale de la voix, elle est responsable de la distinction entre les voix graves et aigues. Ces sons complexes ne sont pas traités par le système auditif en tant qu'entité indivisible : les ondes sonores complexes sont décomposées en leurs composantes sinusoïdales mono fréquentielles au niveau de l'oreille interne. Cependant, malgré cette décomposition du son en ses composantes, celles-ci ne sont pas indépendantes et interagissent entre elles : la perception d'une fréquence sera altérée par les fréquences voisines et ce d'autant plus que leurs intensités sont grandes et que les fréquences sont proches.
3 Figure 2 : Variation de l'intensité sonore (unité relative) en fonction du temps (en s) pour un enregistrement vocal. Les oscillations verticales bleues correspondent aux structures fines, la ligne rouge à
l'enveloppe temporelle. L'enveloppe est essentielle à la perception de la parole, les structures fines améliorent notamment sa perception dans le silence. b. Perception et conduction du son jusqu'à l'oreille interne
L'oreille est composée de 3 parties : l'oreille externe, l'oreille moyenne et l'oreille interne (Figure 3). Cette dernière est le siège de la transduction des ondes sonores en message nerveux et son fonctionnement sera décrit dans la partie I-2) de ce chapitre. L'oreille externe comprend le pavillon (partie externe et visible de l'oreille) et le conduit auditif externe qui aboutit à la membrane tympanique. La conformation de l'oreille externe humaine permet, par simple résonnance passive, une amplification sélective des pressions sonores pour les fréquences proches de 3 kHz. Cette amplification contribue à améliorer la distinction des phonèmes et ainsi la perception de la parole. Le pavillon et la conque agissent également comme un filtre fréquentiel : en transmettant d'avantage de hautes fréquences pour les sources sonores élevées que pour celles situées à hauteur d'oreille. Ces structures fournissent des indices sur l'élévation de la source sonore. Les sons mettent en vibration la membrane tympanique et parcourent ensuite l'oreille moyenne dont le rôle est de transmettre le signal du milieu aérien au milieu liquide de la cochlée. Alors que normalement plus de 99% de l'énergie acoustique est réfléchie au niveau des interfaces air-liquide, la différence de taille entre la membrane tympanique et la fenêtre ovale (20 fois plus petite) et la chaîne ossiculaire -composée du marteau, de l'enclume et de l'étrier- vont amplifier mécaniquement jusqu'à 200 fois la pression exercée par les ondes sonores au niveau de la membrane tympanique.
4 Figure 3 : Anatomie de l'oreille. L'oreille externe est constituée du pavillon (a) et du conduit auditif externe (b).
oreille moyenne comprend le tympan (c), les osselets : le marteau (e), l'enclume (f) et l'étrier (d). L'oreille moyenne communique avec la cochlée via la fenêtre ovale (g, sous la platine de l'étrier) et la fenêtre ronde (h), et est reliée aux fosses nasales via la trompe d'Eustache (i). L'oreille interne, contient la cochlée (j) qui est le siège de l'encodage de sons en influx nerveux ainsi que le système vestibulaire qui contribue aux sensations d'équilibre et de mouvement (l). Les nerfs cochléaire et vestibulaire se rejoignent pour former le nerf auditif (k) qui emprunte le canal auditif interne pour transmettre les messages nerveux vestibulaires et auditifs au cerveau. 2) La cochlée, organe neurosensoriel de l'audition de l'oreille interne
Les vibrations sonores parvenant à la fenêtre ovale se propagent au sein de la cochlée, structure auditive essentielle assurant la transduction des ondes de pression sonore en influx nerveux. La cochlée est le siège de l'analyse des fréquences et de la décomposition des ondes complexes en éléments plus simples dont elle encode la fréquence et l'intensité. La cochlée est une structure tubulaire spiralée sur 2.5 – 2.75 tours dont les dimensions sont 10mm de large et 5 mm de hauteur pour une longueur déroulée de 30 mm environ (Clark, 2003). Cependant ces dimensions moyennes présentent des variations entre les sujets. Enchâssée dans une capsule 5 osseuse au sein de l'os temporal du crâne, la cochlée est divisée en 3 compartiments, appelés canalicules, enroulés autour d'une structure osseuse, le modiolus (Figure 4). Le canalicule central est appelé canal cochléaire. De forme triangulaire, il est bordé par la membrane de Reissner dans sa partie supérieure, par la membrane basilaire dans sa partie inférieure et par la strie vasculaire sur sa partie latérale. Ce canal est rempli d'un liquide appelé endolymphe. La membrane basilaire supporte un ensemble de cellules composant l'organe de Corti dont les cellules ciliées (CC) sont responsables de la transduction des vibrations sonores en influx nerveux. L'organe de Corti est lui-même recouvert par la membrane tectoriale rattachée à la partie interne du canal cochléaire, c'est-à-dire la plus proche du modiolus. Les deux autres canalicules sont la rampe tympanique et la rampe vestibulaire, situées respectivement en-dessous et au-dessus du canal cochléaire. Ils sont légèrement plus longs que le canal cochléaire car ils communiquent entre eux au sommet la cochlée, appelé apex, via un orifice : l'hélicotrème. Celui-ci permet au liquide qui les remplit, la périlymphe dont la composition diffère de celle de l'endolymphe, de circuler librement entre les deux rampes. Figure 4 : Coupe longitudinale de la cochlée et détail au niveau d'un tour cochléaire. a : canal cochléaire; b : rampe vestibulaire; c : rampe tympanique; d : ganglion spiral/cochléaire; e : nerf cochléaire; f : hélicotrème; 1 : organe de Corti; 2 : membrane de Reissner; 3 : strie vasculaire. Le canal coch
léaire
(en vert) est étanche et contient de l'endolymphe dont la composition diffère de celle de la périlymphe contenue dans les rampes tympaniques et vestibulaires.
Cette
différence de milieu crée un potenti
el
électrochimique au niveau de l'organe de Corti. (d'après R. Pujol)
La périlymphe de la rampe tympanique provient du liquide céphalo-rachidien alors que la périlymphe de la rampe vestibulaire est issue du passage du plasma à travers une barrière hémato-péri lymphatique. Cependant, en raison de la communication entre ces 2 canalicules, la composition ionique de la périlymphe est homogène entre les deux rampes et est similaire à celle de liquides extracellulaires tels que le liquide céphalo-rachidien. La périlymphe contient une 6 forte concentration de sodium (140 mM) et de faibles concentrations de potassium (5 mM) et de calcium (1.2 mM). Bien que produite à partir de la périlymphe, l'endolymphe est une solution à la composition unique dans l'organisme : elle est très riche en potassium (150 mM), pauvre en sodium (1 mM) et ne contient presque pas de calcium (25 μM). Sa production est assurée par les cellules épithéliales de la strie vasculaire et sa composition implique de nombreuses protéines transmembranaires. L'endolymphe reste contenue dans le canal cochléaire grâce aux jonctions serrées liant les cellules de sa paroi et ne peut normalement se mélanger à la périlymphe. Les différences de composition entre ces 2 fluides cochléaires ainsi qu'avec le cytoplasme des cellules cochléaires créent des différences de gradients ioniques et de potentiels, lesquelles sont essentielles au fonctionnement de la cochlée qui seront discutées dans la section b. de cette partie. La capsule osseuse de la cochlée présente à sa base 2 orifices clos par des membranes qui permettent les échanges entre celle-ci et l'oreille moyenne. La fenêtre ovale, sur laquelle s'applique la platine de l'étrier, assure la transmission des vibrations à la périlymphe de la rampe vestibulaire, la fenêtre ronde sur laquelle aboutit la rampe tympanique permet la dissipation de l'énergie vibratoire. Ainsi, une brève pression exercée sur la fenêtre ovale déforme la membrane basilaire puis fait se bomber légèrement la fenêtre ronde. a. La membrane basilaire
Les vibrations sonores transmises à la périlymphe par l'intermédiaire de la fenêtre ovale mettent en mouvement la membrane basilaire (vibrations). Celle-ci n'est pas homogène tout au long de la cochlée : étroite et rigide à la base, elle s'élargit et devient plus flexible lorsque l'on progresse vers l'apex. Von Békésy (Békésy, 1960) a montré que lorsque l'on soumettait la membrane basilaire à une onde sonore, celle-ci propageait une onde de même fréquence de la partie la plus rigide, donc la base, vers la partie la plus flexible avec une vitesse décroissante et une amplitude de déplacement croissant progressivement pour atteindre un maximum avant de chuter rapidement. Ses travaux ont montré que la distance parcourue par l'onde pour atteindre le maximum de déplacement dépendait de la fréquence de l'onde sonore utilisée. Les fréquences élevées entraînent un déplacement maximal à la base, les fréquences medium au milieu et les fréquences graves à l'apex de la cochlée. Cette organisation topographique en « clavier de piano » est appelée tonotopie. Ce principe de répartition des fréquences est ensuite conservé tout au long des voies auditives primaires, depuis la cochlée jusqu'au cortex auditif. Lorsqu'un son complexe est transmis à la cochlée, les différentes fréquences qui le composent vont chacune engendrer un pic de déplacement le long de la membrane basilaire. Si 7 ce phénomène de résonnance passive implique que chaque point de la membrane a une fréquence caractéristique, pour laquelle il vibre plus facilement, le principe de propagation de l'onde implique qu'il vibrera aussi, de moindre manière, pour d'autres fréquences, notamment celles plus graves qui parcourent une plus grande distance le long de la membrane basilaire
Figure 5). Figure 5 : (a) Amplitude de déplacement de la membrane basilaire en fonction de la fréquence du son auquel elle est soumise. (b) Schéma présentant les variations de largeur et la répartition des fréquences (tonotopie) le long de la membrane basilaire. Pour les basses fréquences, l'onde parcourt un long trajet le long de la membrane basilaire et atteint une amplitude maximale de déplacement à l'apex (sommet) de la cochlée alors que pour les fréquences élevées, le maximum de déplacement se situe à la base de la cochlée. (d'après R. Pujol)
b. Transduction mécano-acoustique : fonctionnement de l'organe de Corti et rôle des cellules ciliées
Les propriétés vibratiles de la membrane basilaire ne suffisent pas à expliquer l'extrême sensibilité de la cochlée. Celle-ci est capable d'encoder des sons dont l'intensité varie de 0 à 120 dB SPL (sound pressure level), soit de 20 μPa à 20 Pa, et de discriminer des différences fréquentielles de 1/230 d'octave, soit 3.5 Hz à 1000 Hz ou 18 Hz à 5000 Hz (Buser, 1987). A faible intensité, la membrane vibre 100 fois plus que ne peut l'expliquer le mécanisme passif d'onde propagée, indiquant que d'autres phénomènes interviennent. Il existe donc dans la cochlée des mécanismes capables d'amplifier la sensibilité et la sélectivité fréquentielle. Ces mécanismes sont assurés par les cellules ciliées externes (CCE) alors que la transduction des vibrations mécaniques en influx nerveux est assurée pas les cellules ciliées internes (CCI) de l'organe de Corti (Figure 6). En plus des CC, l'organe de Corti est composé de fibres nerveuses auxquelles les CC sont connectées et de cellules annexes ou de support telles que les cellules de so de Deiters, sur lesquelles viennent s'ancrer les CCE, ou les cellules bordantes de Claudius et de Hensen. 8
Figure 6 : Schéma de l'organe de Corti. Les cellules ciliées (en violet) présentent à leur sommet une touffe de stéréocils baignée par l'endolymphe et dont les plus longs sont en contact avec la membrane tectoriale dans le canal cochléaire. Les cellules ciliées internes sont organisées en une seule rangée et assurent l'encodage des vibrations sonores en messages nerveux. Les cellules ciliées externes, réparties sur 3 rangées, contribuent à renforcer la tonotopie en amplifiant les vibrations. Figure 7 : Coupe de l'organe de Corti montrant le décalage entre les points de pivotement des membranes basilaire et tectoriale. Les stéréocils sont basculés vers l'intérieur (côté modiolus, à gauche) lorsque l'organe de Corti s'abaisse, et vers l'extérieur (à droite) lorsque l'organe de Corti s'élève. (d'après (Purves, 2013))
Les stéréocils portent à leur sommet des canaux à cations sur lesquels se fixent des liens apicaux les liants aux stéréocils plus longs (Figure 8). Au repos, ces canaux sont partiellement ouverts si bien que le basculement des stéréocils d'une même CC entraîne une modulation de leur ouverture. Ainsi lorsque les stéréocils sont déplacés vers l'extérieur de la cochlée les canaux s'ouvrent et lorsque le mouvement se fait vers l'intérieur les canaux se ferment. Lorsque les canaux s'ouvrent, la différence de concentration potassique entre l'endolymphe, la périlymphe et le cytosol (liquide intracellulaire) entraîne une cascade de déplacements passifs d'ions selon leur 10 gradient avec pour conséquence une dépolarisation puis une repolarisation extrêmement rapide des CC. Figure 8 : Schéma des stéréocils des cellules ciliées mettant en évidence les canaux ioniques à cation et les liens apicaux responsables de leur ouverture. Les liens apicaux relient les canaux cationiques aux stéréocils adjacents plus longs. Le basculement de la touffe de stéréocils vers l'extérieur de la cochlée (côté stéréocils longs) entraîne l'ouverture mécanique des canaux alors que le basculement inverse entraîne leur fermeture.
La différence de concentration de potassium entre l'endolymphe et le milieu intracellulaire implique une entrée massive de potassium dans la cellule ciliée lors de l'ouverture des canaux aboutissant ainsi à sa dépolarisation.
(d'après R. Pujol
) Ainsi les stimuli sinusoïdaux des ondes sonores donnent naissance à une variation sinusoïdale du potentiel électrique des cellules ciliées. Le nombre de canaux ouverts en position de repos étant inférieur au nombre de canaux fermés, un mouvement des stéréocils vers l'intérieur entraîne une hyperpolarisation inférieure, en valeur absolue, à la dépolarisation provoquée par un mouvement d'amplitude équivalente vers l'extérieur (Hudspeth and Corey, 1977) (Figure 9). L'effet des variations de polarité des CC diffèrent en fonction de leur type (interne ou externe). Figure 9 : Schéma du pattern de décharge mesuré sur un nerf afférent d'une cellule ciliée de la ligne latérale du poisson en fonction des mouvements des stéréocils. Si le basculement des stéréocils vers l'extérieur entraîne une ouverture des canaux cationiques puis une forte dépolarisation de la cellule ciliée, l'existence de canaux restant ouverts en position de repos entraîne une hyperpolarisation des cellules ciliées suite au basculement vers l'intérieur des stéréocils. L'activité
de
la synapse et des fibres nerveuses af
fér
entes sous-ja
centes
dépend du statut de polarité de la cellule ciliée :
cette
activité augment
e
lors de la dépolarisation et diminue lors de l'hyperpolarisation. (d'après Møller, 2006)
Rôle amplificateur des cellules ciliées externes
Trois fois plus nombreuses que les CCI, les CCE jouent un rôle essentiel dans l'amplification et la sélectivité fréquentielle de la cochlée. La dépolarisation de ces cellules va modifier la conformation d'une protéine transmembranaire des CCE, la prestine, avec pour conséquence un raccourcissement de celles-ci et ainsi de la CCE entière. A l'inverse, la repolarisation ou l'hyperpolarisation provoquée par la fermeture des canaux cationiques des stéréocils entrainent un allongement de la prestine et de la CCE (Liberman et al., 2002). Ce mécanisme, appelé électro-motilité, est rapide, ne consomme pas directement d'énergie et permet aux CCE d'une petite portion de l'organe de Corti d'entrer en résonnance avec les vibrations de la membrane basilaire provoquées par le passage des ondes sonores. Cette résonnance très localisée permet d'amplifier les sons de faible intensité d'une cinquantaine de dB tout en permettant une meilleure discrimination des fréquences proches (Figure 10). Figure 10 : Effet de l'amplification par les cellules ciliées externes sur l'amplitude maximale des mouvements de la membrane basilaire. Les phénomènes d'électro-motilité permettent d'amplifier d'une cinquantaine de dB une plage de fréquence extrêmement réduite, augmentant la sensibilité et la sélectivité fréquentielle de la cochlée. (d'après R. Pujol)
Transduction mécano-électrique par les CCI
Les CCI sont les véritables transducteurs du signal : elles convertissent les vibrations sonores en signaux nerveux en fonction de leurs fréquences et intensités. Dans les CCI, l'entrée de cations, et plus précisément celle de calcium, aboutit à l'exocytose de glutamate dans des synapses situées à leur base (Eybalin, 1993; Ryan et al., 1991). Le glutamate va se fixer aux récepteurs membranaires des neurones afférents du système auditif situés face au pôle basal des CCI et déclencher l'émission de potentiels d'action par ces neurones. Cette activité est conditionnée par la fréquence des vibrations sonores. Le changement de polarité des CCI, la libération de glutamate dans la fente synaptique et l'activité électrophysiologique des neurones auditifs afférents accolés aux CCI dépendent de la fréquence de vibration de stéréocils et donc de la fréquence de la vibration sonore excitatrice. Pour des fréquences inférieures à 500 Hz, les variations de polarité de la CCI sont parfaitement synchrones avec les oscillations des stéréocils et suivent le rythme sinusoïdal de l'onde sonore stimulante, ce couplage est appelé « phase locking ». Au-delà de cette fréquence, les contraintes électrophysiologiques ne permettent plus un retour au potentiel de repos de la CCI et sa polarité présente alors, en plus de sa composante sinusoïdale, une ante continue dont l'amplitude augmente avec la fréquence sonore de stimulation (Palmer and Russell, 1986). Au-delà de 3 kHZ, seule cette composante continue perdure. Cependant, malgré cette capacité d'encodage de chaque CCI, au sein de la cochlée et en raison de la tonotopie amplifiée par les CCE, on considère que chaque CCI ne retranscrit qu'une petite plage de fréquences centrées sur une fréquence préférentielle. 13 Innervation des cellules ciliées
Les cellules ciliées, internes comme externes, présentent une double innervation. Elles sont liées aux dendrites de neurones auditifs afférents qui permettent aux influx nerveux cochléaires d'atteindre le tronc cérébral, et aux axones de neurones efférents chargés d'acheminer les messages nerveux du tronc cérébral aux CC. Les neurones afférents sont bipolaires et leurs corps cellulaires sont regroupés au sein du ganglion spiral, aussi appelé ganglion cochléaire ou de Corti. Ce ganglion regroupe environ 30 000 neurones de 2 types dont le nombre et la structure diffèrent en fonction des cellules ciliées auxquelles ils se rattachent. Chez l'homme, le ganglion spiral ne s'étend pas jusqu'au sommet de la cochlée. Alors que la cochlée est spiralée sur environ 2.5 tours, le ganglion spiral effectue entre 1.5 tour (Clark, 2003) et 2 tours (Stakhovskaya et al., 2007) depuis la base. Les afférences des CC apicales présentent donc des dendrites plus longues que celles des CC du milieu et de la base de la cochlée. Les neurones afférents des CCE, dits de type II, sont minoritaires (5 à 10% des neurones du ganglion spiral) (Clark, 2003). Ils ne sont pas myélinisés et chaque dendrite de ces neurones se ramifie pour faire synapse avec une dizaine de CCE appartenant généralement à un même rang. Leur rôle est peu connu mais ils pourraient être chargés d'envoyer des informations sur l'activation des CCE au tronc cérébral. Les CCI étant les réels récepteurs et transducteurs des ondes sonores, 90 à 95% des neurones afférents font synapse avec elles. Chacun de ces neurones, dits de type I, ne présentent qu'une dendrite faisant synapse avec une seule CCI. Cette différence les neurones de type II est particulièrement importante car elle permet d'expliquer que chaque neurone de type I va représenter essentiellement la fréquence préférentielle de la CCI à laquelle il est relié assurant ainsi le maintien de la tonotopie et sa projection vers les relais auditifs du tronc cérébral. A la différence des neurones de type II, les neurones de type I présentent une gaine de myéline qui permet un transfert rapide des informations auditives encodées par les CCI jusqu'au tronc cérébral. A la différence des CCE, chaque CCI fait synapse avec plusieurs neurones de type I dont le nombre varie en fonction des espèces et des fréquences encodées par la CCI. Figure 11 : Illustration (a) des différences d'innervation entre les cellules ciliées et (b) des variations du nombre de cellules ciliées et des neurones de type I entre la base (0) et l'apex (1) de la cochlée. (a) Alors que les CCI (IHC en bleu) font synapse avec un grand nombre de neurones de type I du ganglion spiral (SG), les neurones de type II innervent plusieurs cellules CCE (OHC en rouge) (d'après (Rask-Andersen et al., 2012)).
(b) Alors que le nombre de CCI et de CCE ne varie que peu le long de la cochlée, les neurones de types I innervant les CCI sont plus denses au 2/3 de la cochlée (entre 0.6 et 0.7) où sont encodées les fréquences essentielles à la compréhension de la parole (d'après (Spoendlin and Schrott, 1989)) Le nombre important d'afférences des CCI va permettre le codage de l'intensité sonore (Figure 12). Pour une même CCI, le nombre de récepteurs au glutamate varie entre chaque neurone de type I avec lesquels elle fait synapse. Chaque neurone nécessite donc une quantité différente de glutamate pour déclencher un potentiel d'action, quantité inversement proportionnelle au nombre de récepteurs, et le nombre de neurones de type I déclenchant des potentiels d'action augmente donc à mesure qu'augmente l'activité de CCI à laquelle ils sont connectés. Si l'on mesure l'activité globale des neurones de type I connectés à une même CCI, l'augmentation de l'intensité de stimulation se traduit par une augmentation du nombre total de potentiels d'action. 15 Figure 12 : Schéma explicatif du codage de l'intensité par le complexe CCI - neurones de type I afférents. Le seuil de déclenchement des potentiels d'action dépend, pour chaque neurone de type I, du nombre de récepteurs post-synaptiques : le neurone 1 présentant un grand nombre de ces récepteurs demandera moins de glutamate pour déclencher des potentiels d'action que le neurone 2 ou 3. (d'après
R.
Pujol)
Les cellules ciliées reçoivent aussi quelques neurones efférents en provenance du tronc cérébral. Les CCE sont en contact direct avec des neurones efférents en provenance des complexes olivaires supérieurs médians ipsilatéraux et controlatéraux dont le rôle est de moduler l'électro-motilité des CCE. D'autres neurones efférents du complexe olivaire supérieur latéral ipsilatéral se projettent vers les CCI mais ne font pas directement synapse avec elles. Les terminaisons axonales de ces neurones dopaminergiques font synapse avec les boutons post-synaptiques des neurones de type I et assurent ainsi, par rétrocontrôle, un rôle protecteur des synapses CCI/neurones de type I contre l'excitotoxicité (toxicité liée à un excès d'activité). Les neurones se regroupent en sortie de la cochlée pour former le nerf cochléaire ou auditif. L'essentiel de ce nerf est composé de neurones de type I chargés de transmettre les informations auditives (fréquence et intensité) au système nerveux central tout en maintenant l'organisation tonotopique. Le nerf cochléaire, rejoint par le nerf vestibulaire, constitue le nerf crânien VIII qui pénètre dans le crâne via le conduit auditif interne. Les fibres auditives de ce nerf rejoignent alors le tronc cérébral au niveau de la jonction entre le bulbe rachidien et le pont.
- Les voies auditives au sein du tronc cérébral
A partir du tronc cérébral, il existe 4 relais principaux permettant le transfert, l'analyse et l'intégration des informations auditives jusqu'à ce qu'elles parviennent au cortex auditif situé dans le lobe temporal : le noyau cochléaire, le complexe de l'olive supérieure, le colliculus inférieur et le corps genouillé médian du thalamus (Figure 13). Figure 13 : Schéma des voies auditives de la cochlée jusqu'au cortex auditif mettant en évidence les relais auditifs et leurs connexions. La voie auditive ascendante principale est composée du noyau cochléaire ipsilatéral (cochlear nucleus), des complexes olivaires supérieurs (superior olivary complex), des lemnisques latéraux et leurs noyaux (nuclei of lateral lemniscus), des colliculus inférieurs (inferior colliculus), du corps genouillé médian thalamique (medial geniculate body) puis des cortex auditifs (auditory cortex). Les interconnexions notamment au niveau des complexes olivaires supérieurs et des colliculus inférieurs contribuent à l'intégration binaurale des informations provenant de chaque cochlée. (d'après Møller, 2006) Plusieurs voies parallèles relient les relais ipsi- et controlatéraux ; leurs connexions et interactions par des mécanismes d'excitation et d'inhibition
sont nombreuses
et leurs
rôle
s
17 restent parfois méconnu
s. Par soucis de
clar
té, seules
les principales voies ascend
antes et les structures du tronc cérébral utiles à la compréhension de la partie expérimentale seront détaillées
ci
-
après
. 1) Les relais auditifs du tronc cérébral
Le noyau cochléaire est le premier relais commun à toutes les voies auditives. Il joue un rôle dans le rehaussement des contrastes de la parole en facilitant le transfert des modulations d'intensité et de fréquence au détriment des sons ne présentant pas ces modulations. Il encode aussi les paramètres temporels des stimulations sonores (début, durée, fin) tout en conservant les informations fréquentielles encodées au sein de la cochlée (Møller, 2006). Les fibres nerveuses en provenance de la cochlée se divisent en 3 branches aboutissant dans différentes portions du noyau cochléaire ipsilatéral : la partie antéro-ventrale, la partie postéroventrale et la partie dorsale de ces noyaux. Depuis la partie dorsale du noyau cochléaire, une partie du signal auditif va rejoindre, à l'instar d'autres modalités sensorielles (toucher et proprioception, goût), la voie réticulaire ascendante. Cette voie aspécifique véhicule les informations sensorielles et, après plusieurs relais dans la formation réticulée, se projette sur l'hypothalamus, les centres végétatifs, le thalamus non spécifique puis le cortex polysensoriel. Ce système ipsilatéral intègre finalement toutes les informations sensorielles et participe, avec les systèmes d'éveil de motivation, à hiérarchiser les informations sensorielles pour sélectionner celle(s) prioritaire(s) en fonction du contexte et des intentions du sujet. Les autres voies émanant du noyau cochléaire sont spécifiquement auditives et composées de fibres myélinisées (rapides). L'essentiel des neurones de second ordre du noyau cochléaire vont décusser pour se projeter sur les relais controlatéraux suivants, cependant une part de ces neurones se projette sur le complexe olivaire supérieur et le colliculus inférieur côté ipsilatéral. Le 2ème relais du tronc cérébral est le complexe olivaire supérieur, il reçoit des neurones de second ordre issus des noyaux cochléaires ipsi- et controlatéraux. Comme le noyau cochléaire, le complexe olivaire supérieur peut être divisé en plusieurs parties. La partie latérale représente préférentiellement les hautes fréquences alors que la partie médiane représente plutôt les basses fréquences. Le complexe olivaire supérieur est l'un des plus importants relais du système auditif et ses fonctions sont nombreuses. Il participe à l'analyse et au filtrage des informations auditives 18 ascendantes mais est aussi impliqué dans les processus descendants de régulation et de protection de l'oreille. Le complexe olivaire supérieur joue par exemple également un rôle protecteur contre les sons de forte intensité (>80 dB SPL) en agissant au niveau de l'oreille moyenne par l'intermédiaire du réflexe stapédien et, dans une moindre mesure chez l'homme, du réflexe du muscle tenseur du tympan. Ces 2 réflexes ont pour effet de rigidifier la chaîne ossiculaire ce qui limite voire annule la transmission de l'énergie acoustique depuis le tympan jusqu'à la fenêtre ovale. D'autre part, les neurones dopaminergiques efférents protégeant la synapse entre les CCI et les neurones de type I contre les accidents excitotoxiques ont leur corps cellulaire dans la partie latérale du complexe olivaire supérieur ipsilatéral. Enfin, les neurones efférents innervant les CCE ont leur corps cellulaire au sein des complexes olivaires supérieurs médians ipsi- et controlatéraux, ils modulent l'activité afférente par rétrocontrôle en inhibant l'activité contractile des CCE. De par son intégration de signaux nerveux provenant des 2 cochlées, le complexe olivaire supérieur a un rôle essentiel pour la localisation des sources sonores. Les mécanismes physiologiques inhérents à ce processus seront détaillés par la suite. Une partie des informations auditives venant des noyaux cochléaires et des complexes olivaires supérieurs transitent par le lemnisque latéral et son noyau. Ce dernier a un rôle mineur dans le traitement du signal auditif. La partie ventrale du noyau du lemnisque latéral reçoit les informations du noyau cochléaire ventral ipsilatéral et participe à l'analyse de la durée des sons complexes, la partie dorsale assure le transfert et l'échange, grâce à une commissure entre les lemnisques latéraux de chaque côté (commissure de Probst), des binaurales provenant des complexes olivaires supérieurs. Le colliculus inférieur reçoit les afférences des noyaux cochléaires et des complexes olivaires supérieurs qu'elles aient ou non emprunté le lemnisque latéral. Sa partie externe et dorsale participe à l'analyse du langage et à l'indentification de sons nouveaux alors que sa partie centrale, laquelle communique avec la partie centrale du colliculus inférieur controlatéral, contribue à l'analyse des fréquences et à l'intégration binaurale ou, plus précisément, à la localisation des sources sonores. Si comme dans tous les relais auditif (à l'exception de la partie ventrale du noyau du lemnisque latéral et de la partie dorsale du colliculus inférieur) l'organisation tonotopique est conservée au sein de la partie centrale du colliculus inférieur, ses afférences dépendent de la fréquence sonore représentée. 2) Intégration binaurale dans les relais du tronc cérébral
La situation des 2 oreilles de part et d'autre de la tête implique qu'un son dont la source ne se situe pas face à l'auditeur, sur la ligne médiane équidistante des deux oreilles, ne présentera 20 pas les mêmes propriétés acoustiques en atteignant chacune des oreilles. Par exemple, pour une source sonore décalée à droite par rapport à la ligne médiane, le son parviendra d'abord à l'oreille droite avec une intensité supérieure à celle captée ensuite au niveau de l'oreille gauche. a. Les indices binauraux : Interaural Time Difference et Interaural Level Difference
On appelle ITD (interaural time difference) la différence interaurale de délai de réception (Figure 14a) et ILD (interaural level difference) la différence interaurale d'intensité (Figure 14b) entre les deux oreilles. L'intégration de ces indices binauraux est fréquence dépendante : l'interprétation des différences de délai (ITD) demande un encodage temporel précis et représentatif du signal sonore, aussi elle s'applique aux fréquences permettant un encodage cochléaire par phase locking c'est-à-dire inférieures à 3kHz ; au-delà de cette limite, l'intégration binaurale repose sur l'interprétation des ILD. Bien qu'en moyenne l'ITD maximale soit de 700 μs pour une source située sur la ligne passant par les deux oreilles et alors que les potentiels d'action neuronaux ont une durée de l'ordre de quelques millisecondes, l'homme est capable de percevoir des ITD de l'ordre de 10 μs (Mills, 1958). Cette capacité de détection d'ITD très court repose sur les neurones de l'olive supérieure médiane qui reçoivent leurs afférences des neurones des noyaux cochléaires antéroventraux ipsi- et controlatéraux (Figure 15). Les axones des neurones afférents des noyaux cochléaires ont des longueurs variables, en fonction de cette longueur, les signaux nerveux les parcourant mettront plus ou moins de temps pour parvenir à l'olive supérieure médiane. Or, les neurones de l'olive supérieure médiane agissent comme des détecteurs de coïncidence: ils ne sont activés que s'ils reçoivent les signaux en provenance des 2 côtés simultanément (Jeffress, 1948). Ainsi chacun de ces neurones n'est activé que un ITD précis. Ce processus d'intégration nécessite pour être efficace un codage temporel précis des informations provenant de chaque oreille. Il ne fonctionne donc que pour les fréquences sonores permettant un codage en phase locking c'est-à-dire inférieures à 3 kHz chez l'homme.
| 28,037
|
hal-01607916-GIS%20-%20Cahiers%20Reconstitution%20n%C2%B05%20-%202016_1.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,020
|
Adapter le pin maritime et ses sylvicultures aux risques et aux aléas. Cahiers de la Reconstitution, 2016, 5, pp.6-11. ⟨hal-01607916⟩
|
None
|
French
|
Spoken
| 7,019
| 11,887
|
Adapter le pin maritime et ses sylvicultures aux risques
et aux aléas
Annie Raffin, Brigitte Lung, Frederic Danjon, Céline Meredieu, Dominique
Merzeau, Laurent Bouffier
To cite this version:
Annie Raffin, Brigitte Lung, Frederic Danjon, Céline Meredieu, Dominique Merzeau, et al.. Adapter
le pin maritime et ses sylvicultures aux risques et aux aléas. Cahiers de la Reconstitution, 2016, 5,
pp.6-11. �hal-01607916�
HAL Id: hal-01607916
https://hal.science/hal-01607916
Submitted on 27 May 2020
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Distributed under a Creative Commons Attribution - ShareAlike 4.0 International License
N°5 • NOVEMBRE 2016
LES CAHIERS
du Groupe
Pin Maritime du Futur
20 ANS DE PROGRÈS ET D'INNOVATION
édito
Le Groupe Pin Maritime du Futur
a 20 ans révolus !
Est-ce l’âge de raison, ou la maturité ? Pour le sylviculteur
d’hier, c’était à peine le tiers, voire le quart, de la durée de
révolution de ses peuplements, pour le sylviculteur
d’aujourd’hui, c’est déjà la mi- rotation, et pour le sylviculteur
de demain, ce sera peut-être l’âge de la coupe rase.
l’innovation. Toutefois, ces
derniers mots n’ont de
vraie valeur que s’ils sont
partagés et utiles au plus
grand nombre.
Qui de ses fondateurs, au milieu des années 90 : l'AFOCEL
(aujourd'hui FCBA), le CPFA, l'INRA et l'ONF, bientôt rejoints
par le CRPF Aquitaine, aurait prêté une si longue carrière à une
structure bâtie sur un statut des plus simples, celui d'un
groupement d’intérêt scientifique ?
Rappelons-le encore, le
Groupe Pin Maritime du
Futur est le fruit d’une
collaboration étroite, régulièrement renouvelée, entre ses
acteurs ; une collaboration partagée aussi avec l’ensemble des
partenaires de la filière, une collaboration accompagnée et
encouragée par le soutien indéfectible de l’Etat et des
collectivités territoriales.
Qui aurait pu imaginer que « l’aventure » initiée autour du
programme d’amélioration génétique du pin maritime dans le
sud-ouest - à l’image des « coopératives » développées outre
atlantique sur d’autres pins- allait s’étendre à la grande
majorité des thématiques de la R&D sur notre massif
(sylviculture, fertilité des sols, gestion durable, adaptation aux
aléas…) ?
Qui aurait pu prédire que 20 ans plus tard, l’intégralité des
reboisements par plantation en pin maritime se ferait avec des
plants améliorés produits à partir des graines de vergers de nos
variétés, consacrant ainsi cette espèce comme la première
espèce de reboisement avec plus de 45 millions de plants
commercialisés par an ?
Nul ne se doutait alors, que notre massif aurait à affronter
deux tempêtes dévastatrices, amplifiant en cela ce dernier
chiffre, au travers des besoins liés la reconstitution des
peuplements sinistrés.
Sans avoir à citer ici toutes les avancées scientifiques et
techniques, les partages et diffusions de connaissances, les
évolutions du patrimoine expérimental, que le GPMF a portés
ou auxquels il a contribué, il nous est apparu légitime de placer
ces 20 années d’activité sous le double signe du progrès et de
A cet instant, je me dois de remercier chaleureusement et
sincèrement tous ceux, hommes et femmes, qui de près ou de
loin, à un moment donné, ou sur la durée, ont œuvré pour la
réalisation des projets, à quelque titre que ce soit, contribuant
ainsi à la réussite de l’aventure. Cet engagement de chacun au
service des objectifs communs doit être salué.
Certes, quelques nouveaux nuages sombres pourraient
s’annoncer à l’horizon –comme l’arrivée possible d'un
pathogène invasif ou les effets probables du changement
climatique- risquant d'obscurcir le ciel d’azur qui baigne
habituellement notre pinède.
Gageons qu’une nouvelle fois, notre forêt et sa filière sauront
surmonter ces difficultés et en devenir plus forts.
Et surtout assurons-nous que le Groupe Pin Maritime du Futur,
perdure aussi longtemps que nécessaire, pour apporter sa
contribution à la pérennité et à l’extension de la forêt de pin
maritime.
Patrick PASTUSZKA
Président du Groupe Pin Maritime du Futur
maison de la forêt
cpfa
I N S T I T U T TECHNOLOGIQUE
D. Merzeau, CPFA
Vingt ans… Doit-on penser "déjà" ? Ou "seulement" ?
LES CAHIERS du Groupe Pin Maritime du Futur
La création variétale :
optimisation des stratégies
pour un progrès génétique en continu
Annie RAFFIN, INRA
n misant sur la coopération entre partenaires de la
Recherche et du Développement, et sur la
transparence vis à vis de la filière, l'objectif à la création du
Groupe Pin Maritime du Futur était de coordonner les
actions pour poursuivre le programme d'amélioration
génétique du pin maritime, afin de proposer aux
utilisateurs, des vergers à graines pouvant produire des
variétés nouvelles, adaptées à leurs besoins et diversifiées,
avec un gain génétique croissant.
Une stratégie pour le long terme, à la pointe
de l'innovation
Deux programmes de sélection coexistaient alors, menés
en parallèle par l'INRA et par l'Afocel (aujourd'hui FCBA),
sur la base d'une même population d'arbres sélectionnés
en forêt dans les années 60 (arbres "plus" ou génération
zéro : G0).
Le premier travail du GPMF a donc consisté en un
inventaire des arbres sélectionnés sur trois générations
(G0, G1 et G2), l'enregistrement dans une base de
données commune de leurs pédigrées et de leurs
caractéristiques, puis l'élaboration concertée d'un
protocole de test sur descendance de ces géniteurs, qui
conduira à l'installation de 120 ha de plantations
expérimentales de 1995 à 2003, pour l'évaluation des
performances de plus de 1500 géniteurs. Ces tests de
descendance répétés chacun sur trois sites contrastés
représentant la diversité des Landes de Gascogne, avec
témoins communs, dispositif statistique rigoureux et
évaluation par l'ensemble des partenaires, constituent
aujourd'hui un réseau très précieux de matériel végétal en
sélection et une vaste source de données pour diverses
études. Les variétés VF3 et VF4 ont été créées en grande
partie grâce à l'exploitation des données mesurées dans
ces tests. Dans le même temps, la population
d'amélioration fusionnée a été restructurée en sous
groupes non apparentés pour gérer efficacement les
pédigrées, rationaliser les plans de croisements, et garantir
à la fois le maintien de la diversité génétique et
l'augmentation du gain génétique sur le long terme. Un
conservatoire commun de copies clonales de tous ces
géniteurs (Conservatoire de Castillonville) a également été
constitué pour la sauvegarde et la pré-multiplication du
matériel sélectionné nécessaire à l'installation de vergers à
graines. Un important programme de croisements
contrôlés pour le renouvellement de la population
d'amélioration a été mené de 2006 à 2010, permettant la
création d'une nouvelle génération de descendances G3 :
ce matériel permettra la sélection d'une variété VF5 à
l'horizon 2025.
2
A. Raffin, INRA
E
En parallèle à cet effort considérable de création et
d'évaluation de matériels en sélection sur le terrain, le
GPMF a également mis à profit l'évolution des outils
informatiques et statistiques, en se dotant depuis 2011 du
système Treeplan© (PlantPlan Genetics). Ce système
informatique permet une précision accrue dans
l'estimation des valeurs génétiques des géniteurs en
sélection, grâce à l'analyse globale de l'ensemble des
données historiques et actuelles mesurées sur toutes les
générations de la population d'amélioration, couplée à la
connaissance des relations d'apparentement entre
individus. C'est donc la valorisation de tout le travail
accompli sur trois générations, qui permet aujourd'hui
l'optimisation de la sélection. Des avancées
technologiques sur le génotypage à haut débit, fournissant
"l'empreinte" génétique unique d'un individu à l'aide de
marqueurs moléculaires de son ADN, sont également
intégrées pour la vérification des identités et des pédigrées
dans le programme d'amélioration depuis 2016 : là encore,
il en résulte une meilleure précision dans l'estimation des
valeurs génétiques. Ces innovations permettent ainsi
d'améliorer l'efficacité de la sélection tout en accélérant
les cycles de sélection, pour produire régulièrement le
meilleur du gain génétique.
En 20 ans, le GPMF aura installé près de 300 ha de
dispositifs "génétiques", mesuré individuellement près
de 350.000 arbres, réalisé plus de 1600 croisements
contrôlés, sauvegardé par greffage plus de 1500 arbres
sélectionnés, et créé trois nouvelles variétés pour le
massif des Landes de Gascogne. Tout cela en installant
d'emblée une stratégie pour le long terme, garante de
la diversité et de l'adaptation du matériel sélectionné,
et en intégrant à chaque étape les dernières
innovations méthodologiques des grands programmes
d'amélioration des espèces forestières.
M. Battle, CRPF Aquitaine
n°5 : 20 ans de progrès et d'innovation
Le déploiement du progrès en continu
Annie RAFFIN, INRA
Pour mieux répondre aux contraintes d'un changement
climatique rapide, aux enjeux de diversité génétique du
massif cultivé, et aux attentes économiques de
production, le GPMF met en place une stratégie de
déploiement du progrès génétique "en continu", en
proposant qu'une nouvelle formule variétale soit
créée tous les trois ans environ.
Les variétés améliorées de pin maritime ont été déployées
à un rythme d'environ une nouvelle variété landaise
vigueur-forme à large diffusion tous les 15 à 20 ans (VF1,
VF2, VF3), avec également des variétés Landes x Corse
produites par croisements contrôlés, à diffusion plus
restreinte et généralement réservées aux meilleures
stations (LC1, LC2). Les vergers ont été largement
dimensionnés pour couvrir les besoins en graines habituels
sur le massif, ainsi que pour couvrir le risque de pertes de
surfaces de production en cas d'aléas. C’est grâce à cette
stratégie de large dimensionnement des vergers que la
pénurie de graines améliorées a été évitée notamment ces
dernières années, alors qu'il fallait faire face à la fois à de
forts besoins (reconstitution post tempête) et à de faibles
productions en vergers (dues au moins en partie aux
ravageurs des cônes et des graines).
Les vergers sont de deux types à chaque génération de
variété, de façon à répondre à différents objectifs : vergers
de clones plus rapidement productifs et utilisables
transitoirement en croisements contrôlés (ex : pour
produire la variété LC2 puis VF3), et vergers de familles
pouvant être installés sur de grandes surfaces à moindre
coût. Cette stratégie de déploiement du gain génétique a
rempli ses objectifs jusqu'à présent, comme le montrent
l'augmentation constante de la proportion de surfaces
reboisées par plantation de plants améliorés sur le massif
(aujourd'hui autour de 90% des surfaces reboisées
annuellement), et le remplacement des anciennes variétés
par les nouvelles dès que celles-ci ont été disponibles.
Cependant la diffusion d’une variété majoritaire par
décennie ne répond plus aux enjeux actuels. Au contraire,
le renouvellement accéléré de variétés diversifiées permet
de disposer d'un matériel mieux adapté au contexte du
changement climatique, en intégrant ces nouvelles
contraintes telles que l'intensification des sécheresses
estivales dans le programme de sélection (voir le Cahier
n°4). Il permet également de limiter la surface occupée par
une même variété et favorise la diversité génétique en
mosaïque à l'échelle du massif, susceptible de renforcer sa
résilience vis à vis d'aléas biotiques comme abiotiques. Le
remplacement rapide des variétés permet également de
diffuser en continu le meilleur du progrès génétique dès
l'évaluation des géniteurs d'une nouvelle génération dans
le programme de sélection.
Pour répondre à cet objectif de renouvellement accéléré
des variétés, les principaux leviers d'action sont basés sur
les gains en précision et en efficacité de la sélection acquis
grâce aux innovations technologiques dans le programme
d'amélioration (voir plus haut), et sur un important réseau
de dispositifs d'évaluation de nouveaux géniteurs
disponibles pour la création variétale. Une stratégie
innovante d'installation et de gestion des vergers à graines
est également nécessaire. Une telle stratégie a été
proposée aux multiplicateurs pour les futurs vergers VF4 et
LC3 : il s'agit de concevoir des vergers de moindre surface
(avec un minimum de 30 ha pour limiter la pollution
pollinique) et gérés plus intensivement et collectivement
entre opérateurs, mais aussi de cadencer et de
dimensionner leur installation en fonction des besoins du
massif : 150 ha de vergers en production sont nécessaires,
correspondant à 10 ha à installer par an.
Alors que le GPMF sélectionne aujourd'hui une quatrième
génération de vergers, l'innovation en création variétale
avec la collaboration des multiplicateurs s'accompagne
d'une mutation profonde du rythme et des modes de
production des variétés améliorées de pin maritime, afin
de diffuser en continu le meilleur du gain génétique.
3
LES CAHIERS du Groupe Pin Maritime du Futur
Des critères de sélection en évolution :
volume, qualité et adaptation
Dès le lancement du programme d'amélioration du pin
maritime, les critères de sélection ont porté sur
l'adaptation (choix de la provenance landaise autochtone,
résistante au froid et ayant co-évolué avec son cortège
parasitaire indigène), la croissance (volume du tronc), et la
qualité pour l'utilisation en bois d'œuvre (rectitude du
tronc, finesse des branches).
Très tôt, des études ont été menées pour mieux
comprendre les déterminants de la qualité du bois, leur
variation dans l'arbre et selon son âge, leurs paramètres
génétiques. Mais ce n'est qu'au début des années 2000
que de nouveaux outils pouvant mesurer la qualité du bois
en peuplement, à la fois sur un grand nombre d'arbres et
avec une fiabilité suffisante, ont été testés : outil mesurant
la résistance au forage pour la mesure de densité, compas
électronique pour l'angle du fil. Ces avancées
L'apport des marqueurs moléculaires
Annie RAFFIN, INRA ; Marjorie VIDAL, FCBA ;
Laurent BOUFFIER, INRA
Le développement des outils moléculaires (analyse des
marqueurs moléculaires* du génome) permet aujourd'hui
chez le pin maritime d'établir une "empreinte génétique"
pour l'identification sans erreur d'un individu et la
vérification de son pédigrée. Ces outils peuvent être mis à
profit pour améliorer la précision de la sélection et pour
permettre de nouvelles stratégies de sélection où le
pédigrée est reconstitué a posteriori.
Le pin maritime est une espèce modèle chez les conifères
à l'INRA pour l'étude du génome depuis les années 1980s.
De nombreuses connaissances ont été acquises et
exploitées notamment dans la description de la diversité
chez cette espèce. Mais la grande taille et complexité du
génome des conifères, ainsi que les freins technologiques
et les coûts des analyses moléculaires, n'ont pas permis
jusqu'à récemment de transférer de façon opérationnelle
ces connaissances à des applications en sélection.
Aujourd'hui, le contrôle d'identité et de pédigrées à l'aide
de marqueurs moléculaires, permet la traçabilité du
matériel sélectionné et ouvre de nouvelles perspectives
concernant les stratégies de sélection.
La vérification des identités des génotypes ainsi que de
leur pédigrée permet de détecter et de corriger les erreurs
inévitables qui se cumulent au cours des cycles de
4
technologiques couplées à une meilleure connaissance des
déterminismes de la formation du bois, ont permis
d'ajouter aujourd'hui la densité, l'angle du fil et la qualité
de la branchaison dans les index de sélection. Le volume et
la rectitude du tronc restant les critères principaux à
améliorer, l'objectif fixé est de maintenir les propriétés du
bois dans les variétés améliorées, au même niveau que
dans la provenance landaise non améliorée.
Mais depuis le début des années 2010, dans un contexte
marqué par deux tempêtes destructrices en 1999 et 2009,
et par les incertitudes liées au changement climatique et
aux menaces de pathogènes invasifs, c'est résolument
vers l'adaptation aux contraintes accrues des
conditions environnementales que se concentrent
aujourd'hui les efforts d'innovation en termes de
critères de sélection : le GPMF y consacre un volet
spécifique dans son programme d'action (voir plus loin).
sélection successifs, lors des croisements contrôlés ou de
la sauvegarde par greffage des individus sélectionnés.
L’élimination de ces erreurs augmente la précision des
évaluations génétiques des individus en sélection, ces
évaluations étant basées sur la connaissance des
performances des individus et de leurs apparentés à toutes
les générations.
La recherche de paternité peut être utilisée pour
reconstituer a posteriori le pédigrée d’un individu en
particulier dans les dispositifs de comparaison de
descendances où seule l'identité de la mère est connue
(chaque mère est croisée par un mélange de pollen de
plusieurs pères). Ce type de croisement maximise le
brassage génétique et le nombre de recombinaisons
obtenues au moment du renouvellement de la population
d'amélioration. La recherche de l’identité du père a
posteriori pour les descendants présentant les meilleures
valeurs génétiques, permet alors une sélection d'individus
performants dans une large base génétique.
Ces innovations issues de la recherche en génomique
sont depuis 2016 mises à profit dans le programme
d'amélioration du pin maritime, avec la vérification
systématique des identités des sélections en parcs à
clones, et la reconstitution des pédigrées en tests de
descendance pour la sélection de la future variété LC3.
* marqueur moléculaire : séquence d'ADN présentant de la variabilité entre
individus d'une même population.
n°5 : 20 ans de progrès et d'innovation
Le renouvellement des variétés permet à la fois de faire
progresser le gain génétique diffusé, d'assurer une diversité
génétique à l'échelle du massif, et d'introduire de
nouveaux critères de sélection au fur et à mesure de
l'avancée des recherches et des nécessités économiques et
environnementales.
En 20 ans, grâce à un important programme
d'évaluation et de sélection, INRA et FCBA ont créé en
co-obtention deux variétés (voir le Cahier n°4) : la variété
landaise Vigueur Forme VF3 (180 ha de vergers ont été
installés de 2002 à 2006 par les multiplicateurs), et la
variété Landes x Corse LC2 (40 ha de vergers de clones ont
été installés de 2002 à 2006, utilisés temporairement pour
la production de la variété LC2). De plus, deux vergers
pilotes ont été installés par le GPMF : un verger Biomasse
(2 ha installés en 2014, à l'écart du massif, avec une formule
variétale réduite pour une variété destinée à des courtes
rotations), et un verger Landes x Corse de type "F2" (1 ha
installé en 2011, à l'écart du massif, avec des familles
hybrides Landes x Corse LC2 pour la production d'hybrides
sans pollinisation contrôlée). Enfin deux nouvelles variétés
sont en cours de sélection et seront progressivement
installées en verger : la variété landaise VF4 (sélection 20152016), et la variété LC3 (sélection 2016-2017).
Les gains génétiques par rapport au matériel non amélioré
sont estimés pour chaque nouvelle variété par le GPMF,
grâce à un large réseau de dispositifs expérimentaux. Dans
un premier temps, le gain génétique attendu est estimé
en tests de descendance lors de la sélection des parents
des futurs vergers. Ainsi pour la variété VF3, le gain attendu
en volume et en rectitude en absence de pollution
pollinique est estimé à 40 % en moyenne à 12 ans par
rapport au matériel non amélioré. Puis, pour évaluer le
gain génétique réalisé, le GPMF installe régulièrement
des dispositifs de comparaison des variétés au témoin non
amélioré dès qu'elles sont disponibles : les variétés sont
installées en placettes de production avec plusieurs
répétitions sur le même site. Ces dispositifs, au nombre de
15 en 20 ans, sont installés pendant toute la durée de
production des vergers, et sont répartis dans différentes
stations représentatives du massif. L'évaluation du gain
génétique réalisé obtenue au travers de ce réseau
expérimental est précieuse, mais tardive par rapport à la
vie du verger. C'est pourquoi une nouvelle méthodologie
basée sur la calibration des valeurs génétiques, et
exploitant à la fois ce réseau mais aussi des dispositifs de
descendances en placettes (15 dispositifs de familles
plein-frères en grandes parcelles déjà installés), est mise
en œuvre par le GPMF.
P. Alazard, FCBA
20 ans de création variétale
Les hybrides inter provenances
Pierre ALAZARD, FCBA ; Annie RAFFIN, INRA
Depuis plus de 20 ans, l’intérêt d’élargir le programme
d’amélioration du pin maritime, basé sur la population
locale landaise, aux hybrides inter provenances Landes
x Corse a été largement démontré. Ces hybrides
apportent des gains supplémentaires sur la rectitude du
tronc et la qualité de la branchaison comparativement
aux variétés landaises pures.
Cependant la production des variétés Landes x Corse est
insuffisante au regard des besoins. En effet, le décalage
phénologique de la floraison entre les deux provenances
géographiques impose la pollinisation artificielle en
verger, et constitue un frein important à la production
des semences améliorées. Pour lever ce verrou, de
nouvelles stratégies de production ont été imaginées,
reposant sur l'installation de vergers composés non plus
des provenances pures parentales, mais de matériel
hybride obtenu en pollinisation contrôlée (vergers de
clones ou de familles hybrides), et produisant en
pollinisation libre des semences améliorées. Des
dispositifs d'évaluation de ce type de matériel
fournissent des premiers résultats encourageants sur les
performances obtenues. La future variété Landes x
Corse LC3 sera produite selon ce nouveau processus de
création variétale et de multiplication.
D’autres provenances de pin maritime peuvent être
valorisées en sélection pour des critères particuliers :
adaptation à la sécheresse (provenances marocaines et
ibériques), résistance à certains pathogènes
(provenances marocaines pour leur résistance à
Matsucoccus Feytaudii dans le sud-est, et pour leur
meilleure tolérance à l'armillaire). Compte tenu des
différences de capacités adaptatives entre provenances,
par exemple pour la résistance au froid, ces populations
ne peuvent être utilisées en provenances pures pour le
reboisement dans le massif landais, mais elles peuvent
être intégrées dans la création de variétés hybrides,
selon la même méthodologie que pour les variétés
Landes x Corse.
5
LES CAHIERS du Groupe Pin Maritime du Futur
usqu’en 2010, les actions du GPMF se sont
concentrées sur les travaux de recherche relatifs à la
méthodologie de la sélection génétique et aux travaux
d’application visant à concevoir et à diffuser des variétés
de plus en plus performantes et adaptées aux conditions
environnementales. Même si les risques biotiques étaient
déjà pris en compte dans les projets antérieurs consacrés
au programme d'amélioration génétique (ex : Dioryctria
sylvestrella, rouille courbeuse, fomes), c'est après la
tempête 2009, lors du projet Fortius 2010-2015, que ces
actions fondamentales et pratiques ont été poursuivies et
élargies avec l'ajout d'un volet spécifiquement consacré
aux risques. Ce volet a pour objectif d'accroitre les
connaissances et de proposer des scénarios pour intégrer
l’émergence de risques nouveaux ou l’aggravation de
risques existants, pouvant mettre en péril la fonction de
production du massif.
Dans un contexte de changement climatique et de
mondialisation des échanges, les risques majeurs à prendre
en compte sont soit abiotiques (récurrence de tempêtes
hivernales, aggravation des sécheresses estivales,
fluctuations de températures), soit biotiques (expansion
des zones touchées par le fomes ou l’armillaire, risque
d’introduction du nématode).
Pour réussir ce défi, une première garantie est de disposer
et de maintenir une grande diversité génétique pour le pin
maritime à l'échelle du massif cultivé, pour que dans le
futur, les capacités adaptatives soient suffisantes pour
l’espèce. Une seconde garantie est d’examiner et
d'optimiser les scénarios sylvicoles en intégrant ces
nouvelles contraintes.
Insectes et pathogènes :
comment réduire les risques ?
Variétés améliorées et aléas biotiques
Annie RAFFIN, INRA
La résistance aux pathogènes est bien sûr un caractère
souhaitable pour une variété améliorée. Mais pour être
sélectionnable, un caractère doit être héritable (transmis
d'un parent à sa descendance) et mesurable en routine sur
un grand nombre d'individus observés dans des conditions
comparables. Il faut de plus s'assurer que la résistance
sélectionnée est à large spectre et durable (c’est-à-dire
qu’elle ne sera pas contournée par le pathogène dans le
temps), ce qui dépend en partie du niveau de variabilité
génétique maintenu à l’intérieur et entre variétés. Des
recherches à long terme doivent donc être entreprises sur
chaque nouveau pathogène. C'est pourquoi le programme
6
M. Kleinhentz, INRA
Adapter le pin maritime
et ses sylvicultures
aux risques et aux aléas
J
d'amélioration du pin maritime s'intéresse en priorité aux
menaces les plus conséquentes et pour lesquelles aucune
méthode de lutte préventive ou curative n'est disponible.
Concernant les pathogènes déjà présents sur le massif,
l'autochtonie du pin maritime (caractère du pin
maritime qui a co-évolué avec son cortège parasitaire) et
le souci du maintien de la diversité génétique dans le
programme d'amélioration (voir le Cahier n°4) sont les
premiers atouts pour la santé des peuplements. L'état
sanitaire est systématiquement observé et enregistré dans
tous les dispositifs évalués par le GPMF. Ainsi en dispositif
de comparaison de variétés au témoin non amélioré, il a
été montré que les variétés ne sont pas plus sensibles aux
attaques de la pyrale du tronc (Dioryctria sylvestrella) que
le matériel non amélioré. Cependant, lorsqu'un test fiable
d'évaluation de la résistance génétique selon l'origine du
matériel existe, la stratégie adoptée est de l'appliquer au
minimum au matériel de base des vergers, de façon à
conserver dans les variétés le même niveau de résistance
que dans la provenance landaise non améliorée. Dans le
cas de la rouille courbeuse, le test d'inoculation au
laboratoire sur tige excisée est déjà disponible et validé : il
a été utilisé lors du choix des géniteurs de la variété VF3.
Dans le cas de l'armillaire, le test d'inoculation racinaire
pratiqué sur jeunes plants en pots est trop lourd à mettre
en œuvre en routine : un nouveau test de sensibilité sur
tige est à l'étude avant d'être également appliqué au
matériel sélectionné.
Concernant les pathogènes invasifs, en cas de haute
probabilité d'occurrence de l'aléa, de forte vulnérabilité de
l'hôte et d'impacts socio-économiques importants, le
risque est au niveau le plus élevé. C'est le cas pour le
nématode du pin, introduit pour la première fois en
Europe en 1999, au Portugal. Pour ce pathogène de
quarantaine, la sélection de résistance chez l'hôte est
possible grâce à un test d'inoculation artificielle sur
jeunes plants en conditions confinées. Des résultats
encourageants ont été obtenus au Japon, où des variétés
résistantes ont été développées. Un tel programme de
recherche de matériel génétique tolérant est également
envisageable à moyen terme pour le GPMF, avec le soutien
n°5 : 20 ans de progrès et d'innovation
financier de nos partenaires pour l'obtention de la serre
sécurisée adaptée à cette expérimentation. Cependant
dans tous les cas, les variétés améliorées pour les
caractères de résistance ne peuvent pas suffire à garantir
totalement la santé des peuplements. Des mesures
sylvicoles et sanitaires visant à limiter la diffusion et le
niveau de population du pathogène, et à favoriser la
vigueur des arbres, sont des éléments importants à mettre
en place, dans le cadre d'une véritable lutte intégrée. La
biodiversité à différentes échelles, tels que les îlots ou
lisières feuillues, peut également contribuer à une
meilleure santé des plantations de résineux (voir le
Cahier n° 2).
De nouvelles connaissances au service
de la lutte contre le fomes
B. Lung-Escarmant, INRA ; Céline MEREDIEU, INRA
Le fomes est connu depuis longtemps dans le massif
landais mais les signalements de dégâts se sont étendus
(DSF) depuis 1995. Avec l'aide du DSF et depuis le projet
Sylvogène 2006-2008, des connaissances indispensables
ont été acquises. On peut maintenant affirmer que le
risque de contamination est présent sur tout le massif
landais. Les spores, dont le nombre est sous dépendance
climatique peuvent donc contaminer toutes les souches
fraîchement coupées et cela quelle que soit la saison. Deux
études dendrochronologiques (étude des cernes d’arbres
morts par contamination par le fomes) ont montré que les
arbres contaminés présentent une période de perte de
croissance en diamètre de très courte durée (2 à 3 ans)
avant leur mort. Les arbres sont, pendant leur période de
contamination, asymptomatiques (pas de perte foliaire, ni
de décoloration). Toutes les connaissances disponibles sur
la dispersion des spores, la vitesse de contamination et
l’impact sur la croissance et la mortalité des arbres ont été
synthétisées dans un modèle FomPine couplé au modèle
de croissance des peuplements de pin maritime Pinaster
qui pourra être utilisé pour tester des stratégies de gestion
face à la contamination. Les variétés disponibles
actuellement sur le marché ont été installées sur deux
sites contaminés et un suivi des dégâts est réalisé
régulièrement. En parallèle, le suivi de deux dispositifs
testant des méthodes de préparation du sol avant le
reboisement en site contaminé se poursuit, montrant que
le dessouchage n’est pas un traitement curatif car il ne
permet pas toujours d’éradiquer ce champignon racinaire.
A l’heure actuelle, la seule méthode de lutte existante
et efficace dans les peuplements est préventive.
L’application d’une spécialité pharmaceutique dite de
biocontrôle (ROTSTOP®) est donc fortement conseillée
lors de chaque coupe dans les peuplements de résineux
(dépressages, éclaircies, coupes rases suivies d’un
reboisement).
L’ancrage racinaire et le risque
tempête
Frédéric DANJON, INRA ; Céline MEREDIEU, INRA
Concernant l’adaptation au risque vent, la connaissance de
l’architecture racinaire du pin maritime est une des plus
avancées dans le monde.
Les récentes tempêtes ont permis de mesurer l’ancrage du
pin maritime dans différentes conditions pédologiques et
à différents stades.
L’architecture racinaire du pin maritime
Frédéric DANJON, INRA
Le pin maritime a une architecture racinaire
caractéristique : à la germination, il émet un pivot long
et profond et une couronne d'une quinzaine de racines
traçantes qui suivent la surface du sol. Ces racines
traçantes s'allongent de l'ordre d'un mètre par an et des
ramifications verticales apparaissent formant des pivots
secondaires. Les racines de pin maritime fourchent
rarement et il n'y a en principe pas d'émission de
nouvelles racines sur des racines existantes. De ce fait,
une fois le système racinaire établi, il ne peut
s'acclimater à son environnement qu'à partir de la
croissance en épaisseur des racines. Le pin maritime est
donc très sensible aux perturbations de son système
racinaire.
Le système racinaire du pin s'adapte très fortement à
l'épaisseur du sol disponible qui, dans le massif landais,
peut être limitée soit par une couche d’alios
discontinue soit par la nappe phréatique. En lande sèche
et en dune, jusque vers 20 ans, l'arbre est surtout ancré
par un pivot profond et des racines traçantes renforcées.
En revanche, lorsque la profondeur d'enracinement est
limitée, le pin développe rapidement les pivots
secondaires, mettant ainsi en place une cage rigide, qui
s’appuie très fortement sur l'alios (quand il est présent)
du côté sous le vent.
Le schéma architectural racinaire est homogène pour
l'espèce pin maritime. Cependant, les provenances de
régions venteuses ont tendance à développer un pivot
épais, long, vertical et unique, alors que les provenances
de régions sèches développent surtout un réseau de
traçantes fines et ramifiées. L'adaptation à la sécheresse
semble dominer dans les hybrides entre provenances.
7
F. Danjon, INRA
LES CAHIERS du Groupe Pin Maritime du Futur
La rupture de l'ancrage des arbres de petite taille (< 15
m) lors d'une tempête se traduit par une inclinaison du
tronc (verse) qui correspond à un faible déplacement de la
souche. A ce stade, l'ancrage est assuré principalement par
la souche et le pivot, qui peut être long et assez fin ou plus
court et épais (rigide), ancré par des racines profondes. La
partie des racines traçantes près de la souche contribue à
l’ancrage par leur résistance en flexion, dans le vent et
sous le vent. Quand une racine est blessée, au point de
cicatrisation va apparaître un faisceau de racines de plus
faible diamètre. La propriété d’ancrage de cette racine en
est diminuée (la rigidité en flexion est réduite). Pour
limiter les blessures, une plantation dans l’axe des vents
dominants pourrait être préférée.
A partir d'une vingtaine d'années, le rôle du pivot
régresse au profit des racines traçantes et des pivots
secondaires. La partie centrale du système racinaire
(souche, pivot, partie des traçantes près de la souche,
pivots secondaires et racines profondes) forme alors une
cage rigide qui emprisonne le sol sous l'arbre. La rupture de
l'ancrage des arbres de plus grande taille se traduit par un
chablis : la plaque sol-racine sort du sol environnant, ce qui
correspond à un fort déplacement des racines. L'extension
et la rigidité de la "cage" racinaire vont déterminer le poids
de la plaque sol-racine, essentiel pour l'ancrage. Cette
plaque rigide est haubanée par les racines traçantes dans
le vent, qui agissent donc en tension.
Les variétés améliorées et la tempête
Annie RAFFIN, INRA
Les variétés améliorées pour la croissance et la rectitude
du tronc, ne sont pas plus sensibles au vent que le matériel
non amélioré dans les mêmes conditions sylvicoles. Les
études menées par le GPMF sur ses dispositifs ont montré
que dans les dispositifs d’évaluation des variétés, malgré
une meilleure croissance des variétés améliorées et donc,
a priori une exposition plus importante au vent, les
variétés landaises vigueur-forme VF1 et VF2 présentent
des taux de dégâts non significativement différents du
témoin non amélioré. On observe également que la
8
Dans l'environnement pédologique très particulier du
massif landais, il est important d’observer le
développement des systèmes racinaires au cours des
premières années de croissance de façon à évaluer leur
capacité à établir un système racinaire capable de soutenir
le développement de leur partie aérienne. Pour cela, le
GPMF a contribué à l’installation de plusieurs dispositifs
qui permettent des arrachages réguliers pendant 10 ans :
un dispositif répété dans deux milieux contrastés pour
analyser annuellement la dynamique de croissance des
systèmes racinaires de variétés et d’hybrides de pin
maritime ; un dispositif pour comparer différents types de
travail du sol (labour en plein, labour en bandes et sans
labour) et le type de régénération (plantation et semis).
Les tempêtes dans nos réseaux :
des dégâts et des connaissances
Dominique MERZEAU, IDF-CPFA ; Céline MEREDIEU, INRA
Les tempêtes hivernales sont un phénomène répandu en
Europe et sont considérées comme un facteur majeur de
perturbation. Dans le Sud-Ouest de la France, deux
grandes tempêtes ont récemment causé en moins de dix
ans d'énormes pertes de bois. Les 27 et 28 décembre
1999, la tempête Martin a occasionné environ 28 millions
de m3 de dégâts en Aquitaine. Moins de 10 ans plus tard,
le 24 Janvier 2009, la tempête Klaus a infligé plus de 43
millions de m3 de dommages directs aux forêts
d’Aquitaine, suivis d'une perte de 4 millions de m3 due à
la pullulation induite d’insectes xylophages. A Biscarosse,
en 2009, le vent a soufflé à 172 km/h ; en 1999 il n’avait
atteint que 166km/h !
Comme le reste du massif, ces deux tempêtes ont
endommagé le réseau SylvCOOP Pin maritime, installé
variété Landes x Corse LC1 est celle qui résiste le mieux
sur l’ensemble des sites. De plus, dans les dispositifs
d'évaluation des géniteurs affectés par la tempête, les
familles présentant la meilleure rectitude du tronc sont
aussi celles qui sont les plus stables. Ainsi les variétés
améliorées permettent un raccourcissement des rotations
grâce à leur croissance supérieure, et donc indirectement
une moindre exposition au risque de survenue d'une
tempête, et elles sont également sélectionnées pour une
meilleure rectitude du tronc, facteur favorable à la
stabilité. Il semble donc que l'effet de la sélection sur le
risque lié au vent soit plutôt favorable, allant dans le sens
d'un moindre risque.
n°5 : 20 ans de progrès et d'innovation
En 1999, le réseau comptait 97 dispositifs et 679 placettes
: 101 placettes (soit 15%) ont été éliminées en raison de
l’importance des dommages, 56 placettes (soit 8%) ont
été nettoyées et leurs modalités expérimentales ont dues
être modifiées. Lors de cette première tempête le réseau a
été brutalement rajeuni, car les dégâts ont été les plus
importants dans les placettes âgées de plus de 20 ans. Les
dispositifs en dune ont mieux résisté que dans les trois
autres stations du massif landais. Le mode d’installation
en semis ou plantation n’a pas entraîné de différence de
comportement face au vent. Parfois atypiques, les
différentes densités n’ont pas influencé la résistance
des peuplements, excepté les peuplements les plus
denses qui ont présenté de plus faibles dégâts surement
en raison de la fermeture et l’homogénéité de leur couvert
(« effet bloc »). Les placettes récemment éclaircies ont
toutes eu plus de dégâts si on les compare à des
placettes de densité identique non éclaircies. Les éclaircies
fragilisent les peuplements pendant les quelques années
nécessaires à la fermeture du couvert. Enfin si la
fertilisation initiale permet aux arbres un développement
plus rapide, elle n’est pas remise en question par les
différences de dégâts observées entre placettes fertilisées
ou non. En revanche la tonification, associant destruction
chimique de la végétation et fertilisation azotée appliquée
à des peuplements âgés, procure un faible gain sur la
croissance mais fragilise les peuplements en cas de
tempête. Ces enseignements ont été confirmés lors du
passage de la tempête Klaus. Un modèle statistique sur les
dégâts de 2009 dans les placettes IGN a permis de vérifier
l’importance des facteurs de vulnérabilité classiquement
mis en évidence mais aussi deux nouvelles variables : la
turbulence atmosphérique et l’environnement de la
parcelle. Ainsi, c’est la turbulence qui distingue le mieux les
peuplements de dune : si la vitesse de vent peut être plus
forte, la turbulence y est plus faible. La deuxième variable,
l’effet d’abri montre que les peuplements subissent plus
de dégâts s’ils sont exposés à l’ouest au cours de la
tempête. Ces résultats ont été synthétisés dans le Cahier
n°1 (Sylviculture et stabilité). Lors de cette seconde
tempête, 109 placettes (15 dispositifs) ont été
abandonnées. ONF, 2016
essentiellement en Aquitaine. Ce réseau teste neuf
scénarios sylvicoles avec des densités initiales allant de
200 à 3500 tiges/ha combinés à tous les niveaux
d’amélioration du matériel végétal. Secondairement, des
modalités de travail du sol et de fertilisation sont testées.
Ce réseau est installé par quatre des partenaires du GPMF
depuis 1995 et aujourd’hui 69 dispositifs (528
placettes) sont mesurés tous les trois ans.
9
LES CAHIERS du Groupe Pin Maritime du Futur
scolytes entrainant de nouveau des abandons de
placettes.
Un réseau expérimental forestier se conduit sur le
long terme et les abandons causés par des raisons
diverses (tempête, feu, changement de propriétaire ou
d’usage…) font partie du processus. L’installation
continue de nouvelles placettes – contrebalancée par les
abandons – s’explique par deux raisons. Tout d’abord, la
productivité des peuplements des peuplements de pin
maritime évolue au cours du temps grâce aux nouvelles
pratiques qui apparaissent (préparation du sol, mise en
place des peuplements, entretien…) mais aussi en raison
des changements climatiques (dépôts azotés,
accroissement de la teneur atmosphérique en CO2,
élévation de la température). Deuxièmement, un réseau de
sylviculture moderne pour le pin maritime nécessite
l’intégration des nouveaux niveaux génétiques. Un réseau
se construit régulièrement sinon il devient obsolète face
aux pratiques et serait inféodé à une interaction âge-date
dans l’analyse des facteurs testés. Ainsi depuis 2007,
quatorze nouveaux dispositifs ont été installés en
Aquitaine pour un total de 171 placettes.
Adaptation à la sécheresse
Annie RAFFIN, INRA ; Laurent BOUFFIER, INRA ;
Céline MEREDIEU, INRA
Un des scenarios du GIEC (RCP4.5) prévoit pour le sudouest de la France, à l’horizon 2050, une hausse des
températures de près de 1,5°C et une légère diminution
des précipitations l’été. Ceci se traduirait pour les Landes
de Gascogne par une accentuation des déficits hydriques
estivaux, alors même que ces contraintes sont déjà fortes
dans le massif. Il semble donc important d'expertiser la
variabilité des réponses des variétés disponibles et les
différentes pratiques sylvicoles existantes ou susceptibles
d'être développées dans le cadre d'une diversification des
itinéraires au regard de la sensibilité des peuplements de
pin maritimes à la sécheresse.
celles de leur utilisation en production. Cette stratégie plus
dynamique est rendue possible par l'intégration de
nouvelles méthodologies améliorant l'efficacité et la
précision de la sélection (outils statistiques puissants,
intégration des marqueurs moléculaires) - (voir plus haut).
Un deuxième levier est la recherche, au sein de la
population d'amélioration landaise, de géniteurs
tolérants aux périodes de sécheresse estivales. Pour
cela, le GPMF exploite son important réseau de dispositifs
installés, soit pour repérer les géniteurs les plus
performants en croissance sur les milieux les plus secs, soit
pour développer de nouveaux critères de sélection en
relation avec la tolérance à la sécheresse. Le critère de
sélection le plus prometteur pour discriminer les
descendances ou géniteurs les mieux adaptés sur un site
donné est la dendroplasticité, ou capacité d'un arbre à
réagir différemment dans la formation du bois en
fonction des conditions climatiques rencontrées.
L'arbre formant un cerne par année de croissance, l'analyse
de ces cernes après carottage, en parallèle avec les
données climatiques enregistrées, permet de mettre en
évidence des comportements différents entre arbres et
selon les années sèches ou humides, en liaison à la fois
avec leur capacité de survie et leur capacité de production.
Ainsi le GPMF suit plusieurs dispositifs instrumentés
(recueil en continu de données météorologiques, de l'état
hydrique de la parcelle, de la croissance radiale des arbres),
où la dendroplasticité sera mesurée à terme, pour la
comparaison de différents matériels génétiques (familles,
variétés) sur différents milieux (lande sèche, lande
humide).
La tolérance au stress hydrique est une forte priorité de
recherche dans le programme d'amélioration du pin
maritime (voir le Cahier n°4). Les variétés de demain qui
devront faire face à ces nouvelles contraintes se préparent
dès aujourd'hui. C'est pourquoi une première adaptation
des stratégies de sélection est l'accélération des cycles
de sélection et du rythme de renouvellement des sorties
variétales. Ainsi les conditions environnementales lors de
la sélection des variétés ne seront pas trop différentes de
10
R. Ségura, INRA
Variétés améliorées et adaptation au stress
hydrique
n°5 : 20 ans de progrès et d'innovation
Ainsi plusieurs pistes sont actuellement explorées par le
GPMF pour développer des variétés améliorées adaptées à
un climat plus sec et conservant un bon niveau de
productivité. En fonction de l'ampleur du changement
climatique, et des innovations technologiques possibles,
l'une ou l'autre piste pourront être combinées ou
privilégiées.
Gestion du sous-bois et stress hydrique :
vers une sylviculture économe en eau
Le sous-bois est un concurrent pour les jeunes arbres (eau,
minéraux, lumière). Par exemple, lorsque la ressource
hydrique est limitante ou lorsque la demande climatique
est forte, la transpiration de la strate herbacée étant
élevée, elle consomme la réserve en eau au dépend de la
strate forestière. L’intensité de cette transpiration est plus
ou moins modulée selon la composition du sous-bois et sa
biomasse. Mais le sous-bois joue également un rôle dans
la stabilité des peuplements, sans oublier le risque
incendie. Le travail du sol préalablement à l’installation a
un large impact sur la dynamique qualitative et
quantitative de la colonisation par le sous-bois. Ensuite, les
entretiens avec des outils mécaniques, leurs méthodes et
leur fréquence sont un moyen pour gérer ce sous-bois et
donc atténuer la concurrence pour l’eau et les éléments
minéraux en particulier dans la période entre régénération
et fermeture du couvert. Dans le cadre du projet Pinaster,
et en s’attachant à la période juvénile dans des milieux
variés (callune, molinie…), des dispositifs ont été installés
pour analyser la recolonisation après différents types de
travail du sol ou tester l’efficacité des modalités
d’entretien des interlignes face au stress hydrique subit
par les arbres.
| 38,054
|
2014REIML011_25
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,014
|
L'activité de préparation des séances de classe par les maîtres polyvalents du cycle 3 de l'école primaire : l'exemple de la géographie
|
None
|
French
|
Spoken
| 7,848
| 12,704
|
Chercheur Mais, alors, par exemple, quand ils émettent des hypothèses, il faut bien une référence à un moment donnée pour la valider? E. 23 Alors, attention, les hypothèses, c'est simplement pour voir ce qu'ils pensaient avant. C'est-à-dire que l'hypothèse, ça... alors, c'est quand même, l'hypothèse, elle permet dans la recherche, on fait tous des hypothèses. Mais, c'est pour voir que là notre hypothèse, elle peut être juste, hein. Mais, voilà ce que j'ai appris, voilà ce que je savais avant. Mon hypothèse était fausse et à la fin, on le voit toujours. C'est-à-dire qu'on regarde maintenant ce qu'on appris et je les fais relire leurs hypothèses. Donc, ils voient que... cela leur permet aussi de savoir qu'ils ont appris quelque chose. Chercheur Donc, c'est quand même vous qui transmettez la connaissance au final. E. 24 Non, non, c'est eux, parce que je fais en sorte dans les documents que ce qu'ils trouvent, ce soit la leçon. C'est bien cela le plus dur mais j'y arrive. Chercheur D'accord. E. 25 Oui, non. C'est dur mais enfin, ils y arrivent. Là, un exemple, pour le climat, je voulais absolument qu'ils dégagent les un document qui dégage les caractéristiques en fait, qui permette de définir un climat. Pas toutes, mais au moins, quelques caractéristiques : les précipitations, les températures, la végétation qui dépend aussi des températures. Donc, je leur ai fait dégager les tableaux, comment dire, le diagramme, en fait. Donc, je leur ai fait dégager avec une étude de documents. Ensuite, on a fait un tableau récapitulatif avec les précipitations, les températures. Et grâce à ça, on a fait une expérience avec des plantes. Et donc, on a vu, oui, je sais, c'est compliqué, mais, en fait, on a fait des expériences par rapport aux précipitations, en fait, par rapport à l'eau et aux températures et ils ont vu que quand il fait très froid. Voilà, il n'y a pas de végétation. Et ensuite, je les ai amenés à la lecture d'images. On a une image, on regarde : ah, il n'y a pas de végétation. Il fait froid et bien : quel est le climat? Au lieu de leur dire : le climat : c'est ça! Je leur ai fait dégager les caractéristiques pour ensuite... Chercheur
Mais, alors, vous ne faites pas qu'une heure de géographie par semaine. E. 26 Ah, non. Non, non. Chercheur Vous en faites plus que ça. En fait, vous mélangez un peu les sciences d'une certaine manière. E. 27 Oui, je raccorde tout. Chercheur Ah, oui. D'accord, c'est intéressant. E. 28 En même temps, c'est censé être la réalité que on n'est pas que géographe, enfin. Je sais qu'en sciences, quand on en faisait. On a fait aussi du, enfin, on a étudié le climat, on faisait aussi. Il y a plein de... Chercheur La géomorphologie... E. 29 Il y a plein de voilà. Chercheur Et, est-ce que vous avez des problèmes de connaissances? Par exemple, en ce qui concerne, quand vous préparez vos leçons? E. 30 Je vous dirais que cela va en géographie. Enfin, déjà, j'ai des restes de ce que je faisais quand j'étais plus jeune. On après, enfin, étant donné que j'ai fait des sciences, il y a des choses aussi que je connaissais. Après, non, enfin, je vais chercher, tout simplement. Enfin, si je ne connais pas, je m'y mets et j'essaie de visualiser... Chercheur Et, à ce moment-là, quand vous allez chercher des connaissances pour vous, vous allez les chercher... vous faites un mélange de tout ce que vous trouvez? Comment cela fonctionne, là? E. 31 Non, non. Je vais déjà dans les livres de l'élève. Pour pouvoir un petit peu cibler. Chercheur Dans les manuels, ah, oui d'accord. E. 32 Le B.O., aussi, il sert beaucoup, parce que c'est lui qui va dire : il faut que l'élève ait telle connaissance. Donc, déjà, ça permet, puis, c'est, bien, enfin, bon, c'est vrai que le B.O. n'est pas très, très précis. Mais, moi, je me fixe. Voilà, je me dis, bon : sur le Monde, ils doivent savoir ça à peu près. Et puis, je reste fixée sur les objectifs que j'ai définis. Et, à ce moment là, je vais essayer 479 d'avoir les connaissances qu'il faut. De les maîtriser, en tous les cas, les connaissances que je vais leur apporter de les maîtriser. Chercheur Je comprends bien votre démarche. En règle générale, est-ce que vous trouvez ce
que vous cherchez? E. 33 Pas toujours. Eh, bien, là, pour les plantes, j'ai du tout faire à l'ordinateur. Les documents, les expériences. Chercheur Mais, alors, cela veut dire que vous construisez vous-même les documents. E. 34 Oui, il y a certaines fois, je suis obligée de construire les documents parce que si cela ne me plaît pas. Chercheur Parce que cela ne répond pas à vos attentes, d'accord. E. 35 Bien, le but, si vous avez un objectif, il faut rester dessus. Donc, si cela ne convient pas. Après, je vous dirai que je ne peux pas trop créer des cartes de géographie. Donc, j'essaie de me débrouiller pour en avoir. Mais, là, c'est pareil, pour la carte du monde (carte murale), non ce n'est pas cellelà. J'avais une carte du monde qui ne me plaisait pas du tout en fait. Eh, bien, j'ai reconstruit la carte sur World avec des flèches et tout. Parce que cela ne me plaisait pas comme elle était. Donc, je l'ai repris. Eh, puis,... Chercheur D'accord. Et qu'est-ce qui vous manque le plus pour préparer vos leçons en règle générale? E. 36 Un petit peu plus de clarté, on va dire dans les programmes. Ce n'est pas très clair. Chercheur Donc, si ce n'est pas très clair pour vous, cela voudrait dire que vous pourriez être des fois hors programme alors? E. 37 Je vous dirai, enfin, que comme je consulte beaucoup les manuels, je reste quand même. Enfin, je pense que... Chercheur Ah, oui, cela reste votre trame de... E. 38 Enfin, quand même, je ne vais pas hors programme et puis je ne fais pas des choses. Donc, non, c'est vrai que par exemple quand les B.O. vous disent : le Monde. Le Monde, c'est vaste. Enfin, je veux dire : il n'y a pas tant... mais, là, ils sont en train de mettre en place des progressions, apparemment, qui sont mieux construites que ce qu'on nous avait données. Non, par contre, je pense, enfin,... il y a des choses certainement qui sont peut-être plus dures. Là, par exemple, les caractéristiques, etc. Je sais que c'est peut-être un niveau supérieur. Mais, comme je pense qu'ils sont capables de le faire, que je l'apporte d'une certaine façon. Ça se tient et ça réussit. C'est que... Chercheur D'accord. Et là, c'était une première manière de faire. Donc, vous avez deux autres manières de faire? E. 39 Alors, soit, c'est l'étude de documents. Donc, là, on étudie des documents et après, il y a aussi parfois le transmitif. Mais, j'essaie de limiter, quand même. Chercheur Et l'étude de documents, c'est quels documents que vous présentez? E. 40 Eh, bien, c'est toujours pareil. Ce sont des documents que moi, je vais chercher. Ensuite, les questions, c'est moi qui les pose. Chercheur D'accord. Et après, c'est individuel ou c'est une grande carte ou je ne sais pas? E. 41 Alors, c'est... non, non, c'est individuel. Donc, euh, je ne sais pas,... cela va peut-être vous aider (la maîtresse regarde dans un cahier d'élève). J'ai du mal à m'expliquer, mais voilà. Enfin, là, il y avait sur le changement climatique. J'avais fait en fait... j'essaie de leur poser des questions, enfin, pour essayer. Des questions qui leur permettent de réfléchir et de les amener à ce que je veux. Chercheur Et, à chaque fois, vous faites tout? E. 42 Oui, ça, c'est moi qui l'ai fait. Ça, attendez, que je ne dise pas de bêtises (la maîtresse regarde dans un cahier d'élève). Si, c'était moi, il me semble, sauf ça, j'ai été le chercher. Chercheur Oui les tableaux. (Ce sont des tableaux issus de manuels) Mais, après, toute la réorganisation, c'est vous qui... Donc, en fin de compte, à chaque fois vous utilisez des documents et vous reconstruisez tout le questionnement qui n'est pas spécialement avec le document initial. 480 E. 43 C'est ça. Là, par exemple, c'est pareil, c'est moi qui l'avait fait l'expérience. Là, c'est moi qui l'avais fait. Complètement, avec les diagrammes. Chercheur Oui, oui, on retrouve ça dans les... avec les diagrammes ombrothermiques. E. 44 C'est ça. Donc, j'avais pris un peu partout. J'avais ensuite mis. Voilà. Chercheur Ça, vous faites ça dans toutes les matières? Ou, c'est spécifique à la géographie? E. 45 Oui. Chercheur Ah, oui, en effet, mais, c'est une reconstruction de tout le... E. 46 Oui, enfin, bon, moi, je n'arrive pas à travailler à partir de manuels. Le problème, c'est qu'à chaque fois, cela ne va pas dans ce que... enfin, cela ne rentre pas dans la case par rapport à ce que je souhaite. Et donc, cela me gêne et je suis obligée de refaire. Après, c'est la façon dont je travaille mais... Dans toutes les matières, je vous dis, les livres, je ne les utilise pratiquement pas. Chercheur Dans toutes les matières, c'est pareil, vous n'utilisez pas les manuels? E. 47 Non. Chercheur Cela reste une trame pour vous, pour rester dans les rails. E. 48 C'est ça. Exactement. Chercheur Et, puis, après, vous reconstruisez tout. E. 49 C'est ça. Mais, bon, ils s'y intègrent bien. C'est que... Chercheur Non, non, c'est une manière de faire. C'est inattendu, mais c'est intéressant. Et quand vous récupérez des supports, est-ce que les références : de l'auteur, la date. Est-ce que cela vous importe ou c'est le document en tant que tel. E. 50 Non, c'est le document. Ah, oui, non, non. Le fait que... non. C'est vraiment. Je sais qu'après, il faut respecter les... Chercheur Les... E. 51 Non, parce que les droits d'auteur. Chercheur Non, ce n'est pas ça. Mais, je me posais la question : vous récupérez un document sur un internet, mais comment vous pouvez savoir que c'est un document qui reflète bien ce qu'il veut dire? Comment vous validez ce...? E. 52 Parce que je le lis. Enfin, non, non, je fais attention. C'
est pas, par exemple pour les diagrammes.... Chercheur Parce que vous avez les connaissances suffisantes? E. 53 Oui, bien sûr. De toute façon, à partir du moment où j'ai mis un objectif, je sais ce que je veux. C'est-à-dire : je ne fais pas comme ça, au hasard. Je sais ce que je veux à la fin. Donc, je sais ce qu'il va falloir. J'ai déjà pré-réfléchi, beaucoup. Avant de faire mon document, j'ai déjà beaucoup réfléchi, noté tout ce qu'il me fallait. En fait, j'ai une ébauche, simplement, il me manque les documents. Je vais aller chercher ce qu'il me faut. Pour les diagrammes, je savais que je voulais avoir le climat tropical, le climat machin et je suis allée pour avoir tous ces climats. Voilà. Je ne vais pas aller sur internet en me disant : ah, ce document, il est bien et ensuite faire. Non. Je fais et ensuite je vais chercher le document. Ce qui va plus vite quelque part. Parce qu'une fois que vous avez défini votre objectif, vous savez ce que vous voulez, il faut aller le chercher. Enfin, vous voyez, une fois que vous savez vraiment ce que vous voulez, vous cherchez, vous cherchez, vous allez trouver. Au pire, si vous ne trouvez pas, vous le créez. Chercheur Oui, d'accord. Est-ce que vous avez du mal à préparer vos leçons de géographie? E. 54 Du mal, je n'irai pas jusque-là. C'est vrai que c'est long. Il faut vraiment y réfléchir. Mais, du mal, non. D'ailleurs, je m'y suis mise cette année, là, en géographie. Avant, c'était une collègue qui faisait à ma place. Et, comme j'ai
changé d'école, je le fais et puis j'aime bien. Chercheur Mais, là, cela fait plusieurs années que vous faites le CM2? E. 55 Cela fait deux ans. 481
Chercheur Et donc, l'année dernière, vous ne faisiez pas de géographie? E. 56 Non, c'est ça. Moi, je suis jeune. Je suis T.3, donc. Je suis toute jeune. Chercheur Et, qu'est-ce que vous manque le plus pour préparer vos leçons? E. 57 Des documents. Je trouve qu'il n'y a pas assez de documents. Chercheur De quels types? E. 58 De tout. Les cartes, par exemple. Je trouve qu'il n'y a pas assez de documents que l'on puisse utiliser. Par exemple, les cartes pour les faire légender. Ce genre de chose. Dans les manuels, il y a beaucoup, effectivement, il y a beaucoup de documents. Enfin, il y a la leçon. Mais, oui, il n'y a pas vraiment beaucoup de documents où vous puissiez légender. Où il y ait une recherche. Chercheur Une sorte de cahier de T.P., quoi? E. 59 Oui, des études de documents. Il y en a. Je sais qu'il y a un gros bouquin. Je ne sais plus comment il s'appelle. Il est bleu. C'est 60 séquences de géographie. Chercheur Cela doit être 15 séquences de géographie. E. 60 Voilà, c'est ça. Il est pas mal, il est pas mal. Celui-là, oui, il répond plus. Mais, bon, il faut quand même aller chercher. C'est que les manuels de géographie surtout anciens, c'est... je trouve que c'est un petit peu barbant. Enfin, cela ne rend pas tellement vivant la géographie. Alors, que c'est une science vivante quand même. Chercheur Pourquoi cela ne la rend pas vivante? E. 61 Après, pour moi, je trouve qu'il faut, enfin, c'est comme les sciences, il faut utiliser ce qu'on a aussi à l'extérieur. Vous voyez ce que je veux dire. Je veux dire : là, comme ça, vous lisez une leçon de géographie. C'est quand même rébarbatif. Chercheur Vous êtes plus dans l'expérience. E. 62 Oui, eh, bien j'essaie que cela soit aussi... Chercheur Plus actif? E. 63 Oui, et que ce soit réfléchi. Je trouve que cela ne rend pas vivant de lire un cours, à voix haute, et que cela ne permet pas de... Il y a des élèves qui sont très attirés par ça, par la leçon, mais je le vois, quand je le fais en histoire et en géographie et que je fais une leçon orale, que je leur explique des choses. Ils retiennent moins bien et ils sont moins. Enfin, je ne sais pas. Chercheur Mais, ça, c'est une manière que vous avez apprise à l'IUFM ou c'est quelque chose... E. 64 Eh, bien, la démarche d'investigation, oui. Après, la façon dont moi, je fais mes documents, non. C'est en voyant mes élèves et en voyant ce qui marchait, ce qui ne marchait pas. J'ai tâtonné, au début. Mais bon après, enfin, vous trouvez aussi votre façon de faire. Moi, je veux dire que cela me convient. Chercheur Et, est-ce que vous avez eu des cours à l'IUFM, en géographie? E. 65 Non, très peu, franchement. En géographie et en histoire, enfin, malheureusement. Chercheur Et, cela vous a manqué? E. 66 Oui, quand même. Il ne faut pas dire. Après, on se rattrape en travaillant et en cherchant. Mais, c'est vrai que quand même les cours à l'IUFM. Il y a des choses qui m'ont servi. Mais, en géographie, je n'ai pratiquement jamais eu de cours. J'avais une historienne, alors, en plus. Chercheur Et, ça, ça vous a manqué? E. 67 Oui, un petit peu, quand même. Après, maintenant, enfin, comme j'ai une façon de travailler. Et que j'arrive à faire mes progressions toute seule. Je n'ai jamais eu vraiment de problèmes pour faire mes séquences. Mais, oui, si j'avais eu un petit coup de pouce en plus. C'est toujours mieux parce que cela prend du temps. Donc, on se dit qu'un petit coup de pouce en plus, ce n'est pas... E. 68 C'est aussi pour cela que je fais cette démarche d'investigation. C'est vraiment pour insister sur le 482 sens. Et insister sur le fait que les choses ne viennent pas comme ça. On les trouve, on les cherche. Chercheur On les construit, d'accord. E. 69 Oui. Vraiment, pour qu'ils soient acteurs de ce qu'ils font. Parce que je trouve qu'ils sont vraiment passifs. De plus en plus. Et, ils attendent qu'on leur donne la becquée, qu'on leur donne. Non, mais c'est vrai. À chaque fois que j'ai mes classes, au début, c'est dur, mais c'est dur de les mettre au travail en groupe. Et puis, bon, à la fin de l'année, c'est, vous les voyez, c'est complètement autre chose. J'avais une conseillère péda qui était venue la première année où j'enseignais. Et, j'avais fait, en fait, retrouver tous les caractères, les caractéristiques de tous les quadrilatères. Et, elle m'avait dit : eh, bien, chapeau. Parce qu'en fait, j'étais partie de figures et il fallait qu'ils me retrouvent toutes les caractéristiques. Enfin, c'était compliqué, mais ils avaient trouvé et à la fin, ils sont vraiment... Chercheur Performants... E. 70 Oui. Eh, bien, c'est le but. Vraiment, après, on a chacun une façon mais je pense que tout le monde a ce but là quand même.
483 Transcription de l'entretien de I.G. I.G., 13 d'ancienneté, 35-40 ans. PE1/PE2, histoire géographie pendant un semestre, licence d'Allemand
.
Chercheur
Je travaille sur les supports qu'utilisent les maîtres en classe de géographie. Donc, en fait, j'essaie de comprendre comment les maîtres s'y prennent pour se documenter, pour préparer leurs leçons de géographie. En fait, c'est ce qui se passe avant la classe. C'est ce qui m'intéresse. Quels documents ils utilisent? Pourquoi ils les utilisent? Pourquoi ils ont pris
celui-là plus qu'un autre? Est-ce que toi, tu as des supports particuliers que tu utilises? I. G. 1 Moi, j'utilise beaucoup le gros fichier ressources de chez... j'ai peut-être ici l'histoire? Non, je ne l'ai pas évidemment.... de chez Retz. Chercheur Ah, oui, les quinze séquences. I. G. 2 Les quinze séquences parce que finalement les documents, ils ne sont pas mal. Et, sinon, tu perds beaucoup de temps. A t'éparpiller, à chercher. Mais, c'est vrai qu'il te faut toujours le document. Mais, tu perds un temps fou. Chercheur Toi, tu n'utilises que ça, en fin de compte? I. G. 3 Beaucoup, oui, parce que j'ai tendance à perdre du temps sur les... sur tout ce qui est discipline, oui, d'éveil. Donc, là, il a fallu que je recentre pour finir le programme, quoi. Chercheur Ah, oui, d'accord. I. G. 4 Après, pour les études de paysages, on a aussi une banque de posters. C'est... enfin... mais, le problème, c'est que ça se périme vite, quoi. Enfin, j'ai des trucs... tu te dis : bon. Genre la France industrielle. Et puis, moi, ce que j'aimais bien, c'était quand on avait le monde. C'était tout ce qui est recherche. Mais, on peut le faire sur l'Europe auprès pas des ambassades mais il y en a des centres... comment cela s'appelle? Chercheur Des centres culturels? I. G. 5 Des centres culturels, avec des dépliants. C'est vrai que ça permet de découper. De patouiller. Chercheur D'accord. Et toi, comment tu t'y prends avec le fichier que tu utilises? I. G. 6 Là, j'essaie de me concentrer sur vraiment le... Chercheur Ce qui est donné. I. G. 7 Mais, j'ai toujours, c'est une horrible tendance chez moi, j'ai tendance de faire le truc à ma sauce. En fait, après, je perds du temps. Chercheur Donc, tu en reviens
toujours à ce fichier. I. G. 8 Donc, j'essaie, oui. Chercheur Et, dans les autres matières, tu fais de la même manière ou...? I. G. 9 Ben, histoire... disons, toutes les disciplines d'éveil, là, j'en suis arrivée à ça quoi. Chercheur Ah, oui, d'accord. I. G. 10 Parce que sinon, je ne finis pas le programme. Chercheur Ah, oui. Cela fait plusieurs années que tu fais de cette manière là? I. G. 11 Depuis l'année dernière. Chercheur Ah, oui, depuis l'année dernière. Mais, alors pourquoi tu fais cela depuis l'année dernière et tu ne le faisais pas avant, par exemple? I. G. 12 Parce que avant... pour moi, c'était juste un fichier parmi d'autres et j'avais d'autres supports. Et puis, je me suis aperçu, là, c'est vraiment hyper carré, hyper... et tu finis... enfin, c'est plus... Et, puis, je me suis aperçu que je perdais du temps à multiplier les supports et les approches et du coup, eh, bien, on n'avançait pas dans... 484 Chercheur D'accord. Et, donc, ce fichier-là, toi, il te satisfait entièrement? I. G. 13 En même temps, cela veut rien dire parce que parfois tu utilises un truc un ou deux ans, tu t'aperçois, tu en es très content, parce que c'est vrai, c'est structuré, etc. Puis, au bout de la troisième année, tu commences à apercevoir beaucoup plus les lacunes. Donc, je pense que d'ici un ou deux ans, j'arriverais... Chercheur Tu feras autre chose? I. G. 14 Oui, voilà. Chercheur D'accord. Mais, avant, tu faisais comment, alors? Comment tu t'y prenais? I. G. 15 Alors, avant avec les cycles, avec les CM2, on avait le monde, comme thème. Et donc, on cherchait sur des tas de supports, enfin, moi, je leur faisais chercher pour les types de paysages par exemple, aller chercher des brochures publicitaires dans les agences de voyages pour caractériser les différents climats, etc. Chercheur Mais, tu n'avais pas de manuels, des choses comme ça? Tu n'utilisais pas de manuels? I. G. 16 De manuels, non. Et, puis, c'est vrai que je n'ai pas investi dans le manuel de géographie parce que je trouve que les données, enfin, en même temps, c'est logique, périment plus vite que les données en histoire ou en sciences. Donc, c'est vrai que... Chercheur Mais, alors, par exemple, quand tu utilises ce fichier-là, tu... comment dire? Tu photocopies le document? Comment ça fonctionne? I. G. 17 C'est... tu as, à chaque fois, un document à photocopier. Un ou plusieurs avec tout un processus de questionnaire sur le document. Donc, c'est vrai, cela donne une méthodologie aussi aux élèves. Et, tu as même l'évaluation qui est prévue. Chercheur Toi, tu fais tout de A à Z? I. G. 18 Disons que cette année, j'essaie de m'y tenir. Mais, j'ai du mal. J'ai toujours tendance à faire : tiens, si on faisait ça? Mais, du coup, après, je n'avance pas dans le programme. Chercheur D'accord. I. G. 19 Alors, j'essaie de m'y tenir au moins une année pour m'apercevoir vraiment
de ce qui manquerait réellement et le rajouter après. Chercheur Ah, oui, d'accord. I. G. 20 Parce que sinon, j'ai tendance à partir dans tous les sens. Chercheur Oui, je comprends ce que tu veux dire. Et, dans les autres matières? Cela te fait la même chose, par exemple, en français, en mathématiques, ou c'est spécifique aux matières d'éveil? I. G. 21 C'est spécifique aux matières d'éveil. Chercheur De t'étaler comme ça. Ou...? I. G. 22 De m'étaler, oui. Je ne sais pas. Ou j'arrive mieux à centrer pour le français et les maths. Mais, c'est vrai que c'est un de mes gros soucis. Le timing. Chercheur Et, est-ce que tu en fais toutes les semaines de la géographie? Du coup, avec ce...? I. G. 23 J'essaie, oui. Chercheur Ah, oui, tu t'y tiens. I. G. 24 Oui, j'essaie de m'y tenir. Chercheur Et, donc, cela ne te pose pas de difficultés pour préparer tes leçons, de ce fait? I. G. 25 C'est quasiment tout clé en mains. Tu as toutes les pistes, les... enfin, il est bien fait, quoi, comme support. C'est vrai que, comme je dis, à l'usage, on va s'apercevoir : il manque ci, il manque ça. Mais, en base de travail, c'est clair, précis. Les documents sont assez bien... comment dirai-je... bien choisis. Il y a beaucoup de cartes. Chercheur Et comment tu l'as trouvé ce document? 485 I. G. 26 En allant chez les éditeurs. Et en le feuilletant. C'est là où les éditeurs ils manquent maintenant. Chercheur C'est-à-dire? I. G. 27 C'est là, la possibilité de feuilleter les manuels. Chercheur Ah, oui, toi, tu avais feuilleté et celui-ci t'avait tout de suite convenu par rapport aux autres, ou comment? I. G. 28 Eh, bien, je... disons, que géographie, entre autres, j'avais vu celui de géographie parce que je cherche toujours à droite, à gauche, les cartes, les... et je m'éparpillais. Je perdais un temps fou. Alors que là, c'était vraiment bien précis, bien.... Chercheur Ah, oui, d'accord. I. G. 29 Mais, même,... bon, tout ne correspond pas au programme. Parce que, par exemple, tu as tout, pour chaque pays européen, tu as les grandes villes, le relief, les fleuves. Evidemment, on ne fait pas tous les pays européens dans le détail mais je veux dire : c'est vraiment très documenté. Chercheur Ah, oui, d'accord. I. G. 30 Donc,... Chercheur Il y a une partie pour toi, et une partie pour les élèves? Si je comprends bien. I. G. 31 Voilà, oui. Chercheur Et, qu'est-ce qui te manquerait le plus... qu'est-ce qui te manque le plus pour préparer tes cours de géo? Ou s'il ne te manque rien? Je ne sais pas. I. G. 32 Non, mais, c'est vrai, le problème avec la géographie, entre autres, enfin, moi, je n'ai pas fait d'études de géographie. C'est qu'on reste aussi beaucoup sur ce que nous on a appris. Alors, est-ce qu'on fait réellement de la géographie comme on devrait la faire? Ce n'est pas garanti. Chercheur Mais, par exemple, avec ce livre-là, tu penses que tu l'as fait mieux comme elle devrait être faite ou...? Parce qu'en même temps, c'est un livre pour les maîtres , donc. I. G. 33 Oui. Chercheur Ou tu considère que ce n'est pas encore ça? I. G. 34 Tu sais, des fois, tu regardes les livres de maths ou de français, et cela dépend aussi des personnes qui les écrivent. Chercheur En fait, ce n'est pas parce que c'est écrit... c'est vendu par des éditeurs que tu as vraiment confiance, si je comprends bien? I. G. 35 Il y a des fois, il y a quand même des grosses boulettes. Chercheur Ah, oui, d'accord. I. G. 36 L'exemplaire en CM2 de Vivre les maths. Sur la couverture, ils avaient fait une erreur de conversion. Ils avaient mis que un mètre c'était égal à un centième de décimètre. Chercheur Au lieu d'un dixième. I. G. 37 Enfin, bref. Voilà. Chercheur Donc, en fin de compte, même si c'est un manuel qui est destiné aux... un livre qui est destiné pour les enseignants, enfin, tu as toujours un regard critique? Malgré tout. Tu ne prends pas pour argent comptant. I. G. 38 Il faut dire que c'est vrai que de toutes manières à l'IUFM, on nous disait toujours : oui, mais, il faut regarder ce qui ne va pas. Et, c'est vrai qu'on garde cette manière. Là, c'est vrai que pour ce manuel-là, je me suis dit : il faut que je fasse confiance parce que je ne m'en sors pas. A part fouiller à droite, à gauche. Je perds trop de temps. Chercheur Ah, oui, d'accord. I. G. 39 Il y a un moment où il faut arrêter. Sinon, on part dans tous les sens. Chercheur Et, donc, tu fais ça, en histoire aussi. En sciences? 486 I. G. 40 En sciences, j'ai un peu plus de so
ucis parce que notre répartition, elle ne retombe sur le fichier. Mais, euh,... Chercheur Toujours dans la même collection, pareil? I. G. 41 Ils sont vraiment très bien. Chercheur Non, non, je te titille, mais j'essaie de comprendre comment les maîtres s'y prennent. Qu'est-ce qui leur fait choisir plus un document qu'un autre? I. G. 42 Au départ, je étais partie sur... il y a la collection Magellan aussi qui était assez illustrée. Adaptée pour les enfants, qui n'était pas mal. Chercheur Mais, là, tu as des illustrations chez Retz, et tout? I. G. 43 Tu as des cartes, des... eh, bien, après, c'est vrai qu'au niveau des photos, etc., c'est plus réduit. Tu as quelques affiches à la fin du fichier. Et, mais, par exemple, en histoire, c'est une mine ce truc. Ils choisissent vraiment... tiens, regarde! Ça, c'est sur les châteaux-forts. Tu as des photos, tu as le schéma. Et tu as le questionnaire qui va avec. Chercheur Et, qu'est-ce qui te manquerait le plus pour préparer tes... s'il y avait quelque chose qui te manquait? Là, tu utilises ce support-là, mais je ne sais pas... I. G. 44 Eh, bien, disons que c'est à force d'utiliser un support que l'on s'aperçoit de ses manques, je pense. Chercheur Oui, c'est ce que tu disais. Mais, pour l'instant, tu n'en as pas eu de particulier? I. G. 45 Sinon, c'est vrai qu'on recherche des trucs sur internet. Il y a des documents à la bibliothèque. Mais, là, j'essaie de me lim... de me concentrer plus sur une source de documents plutôt qu'aller chercher, je m'éparpille. Chercheur Et,
par exemple, dans les autres, pour les autres matières, si je comprends bien, tu les fais quand même chercher sur internet. Ou toi, tu cherches, par exemple? I. G. 46 Les deux. Chercheur Ah, oui, les deux. Mais, alors, comment tu valides, par exemple, tes documents quand tu les récupères sur internet? Pas spécialement en géographie. I. G. 47 En fait, généralement, quand je vais sur internet, j'ai déjà une idée précise du type de document que je veux. Donc, soit il faut que j'arrive à trouver pile poil ce qui tombe dans les critères. Soit, alors, c'est vrai que des fois, comme internet est très vaste, c'est très compliqué. Chercheur Mais, en fait, le document, là, tu me dis : je cherche le document que je veux. Cela signifie quoi? C'est-à-dire? I. G. 48 Soit c'est une carte vraiment précise, ou tout ce qui est graphique. Des données avec des dates. Chercheur En fait, oui, c'est quelque chose que tu pourrais faire toi-même, en gros, mais... I. G. 49 Je n'ai pas forcément toutes les données. Chercheur Voilà, tu n'as pas les données, d'accord. Tu sais, en gros, ce qu'il y a dedans, quoi. I. G. 50 Voilà. Généralement, je sais ce que je veux. Chercheur Est-ce que tu apprécies particulièrement cette discipline ou c'est quelque chose qui... tu l'as fait parce qu'il faut la faire? Tu l'as fait parce que...? I. G. 51 Alors, au début, je la faisais parce que, enfin, j'aimais beaucoup parce que ça permettait d'ouvrir sur le monde. De faire un tas de thèmes. Et puis, je trouve qu'on court de plus en plus après le temps, et cela devient une corvée parce qu'il faut que ça soit pile poil millimétré et que ce n'est pas ma spécialité. Chercheur Tout à l'heure, tu m'as dit : en fin de compte, je ne sais pas si je fais bien la géographie parce que, moi, je l'ai apprise d'une manière et je ne sais pas si on doit la faire comme ça maintenant. Si j'ai bien compris ce que tu m'as dit? I. G. 52 Oui. Chercheur Mais, alors, qu'est-ce qui te gêne par rapport à ça? C'est un problème de connaissances? C'est un 487 problème de connaissances du programme? C'est un problème de...? I. G. 53 De connaissances tout court. Parce lorsqu'on parle, je me rappelle, avec le prof de géographie à l'IUFM, cela ne recoupait pas forcément les mêmes,... les mêmes notions,... enfin les mêmes réalités. Ce qu'on... donc, c'est assez embêtant. Chercheur Ce qu'il disait, lui? I. G. 54 Ce qu'il disait. Donc, et mais même au niveau du vocabulaire. Comment tu veux être précis si on ne parle pas de la même chose. Chercheur C'est-à-dire? Là, je ne comprends pas. I. G. 55 Je me rappelle du grand truc sur : plaine, plateau, vallée, machin. Chercheur Toi, tu ne comprenais pas ce qu'il disait : c'est ça? I. G. 56 Si, ben, je n'avais pas la même définition. Donc, je me disais : celle que j'ai apprise par cœur, elle est toujours valide? Ou, est-ce que non, ce n'est pas du tout ça? Cela ne vaut plus du tout le coup de l'apprendre? Chercheur Mais, alors, donc, toi, j'en reviens à toi. Dans ton livre-là, il y a une partie pour les maîtres. Mais, eux,
ils donnent une définition, en fin de compte. I. G. 57 Oui, aussi. Chercheur Mais, alors, donc, ça, ça devrait te... I. G. 58 Bah, oui, mais il faudrait que j'ai les trois niveaux parce que certaines définitions, elles sont d'avant. Chercheur Ah, oui, d'accord. Ah, oui, c'est-à-dire, ils ne reprennent pas à chaque fois les définitions? I. G. 59 Toutes les définitions. Chercheur Et toi, ça, ça te gêne, ça? I. G. 60 Eh, bien, je fais comme je peux. Mais, je ne suis pas sûre justement d'être... Chercheur Ah, oui, et en fin de compte, tu ne vérifies pas pour autant. I. G. 61 Là, en ce moment, je... je n'ai pas le temps. Chercheur Je ne juge pas, j'essaie de comprendre. I. G. 62 Oui, parce que c'est vrai, l'avantage, le Magellan, il est existe le fichier photocopiable. Enfin, le fichier que pour la géographie. Donc, là, l'avantage, c'est vrai que tu peux voir tous les... tous les différents... Chercheur Sur le cycle. I. G. 63 Oui, sur le cycle. Eux, ils font les trucs soit par niveaux, mais avec comment dire... Chercheur Oui, je comprends. Soit l'histoire, soit la géo... I. G. 64 Toute l'histoire, enfin histoire et géo et machin, CM1. Soit, ils font tout pour le cycle 3. Chercheur Oui, oui, d'accord. Ah, oui, toi, en fin de compte, ce dont tu aurais besoin pour toi, c'est d'avoir toutes les données pour le maître CE2, CM1, CM2, mais avoir le fichier pour l'élève juste pour ta classe? I. G. 65 Oui. Chercheur Si je comprends bien? I. G. 66
Oui, mais, enfin, cela ne se présente pas comme ça, donc. Chercheur Oui, mais quand tu as des doutes, par exemple, sur des définitions. Tu aurais besoin de l'ensemble des définitions. I. G. 67 En histoire, c'est ce que je fais. Je vais regarder les leçons d'avant du livre. Chercheur Ah, oui, d'accord. 488 I. G. 68 Effectivement. Donc, je ne sais pas, la géographie, tu as toujours l'impression que c'est un peu plus... flou que l'histoire. Chercheur Un peu plus flou? I. G. 69 En même temps, l'histoire, c'est chronologique, donc. Chercheur Non, mais, c'est justement, ta réponse-là, elle appelle une... en fait, c'est comme si tu exprimais un besoin. Si tu veux. Mais, alors, c'est quoi. Si tu avais, par exemple, quelque chose, à dire, par exemple, je ne sais pas... I. G. 70 Par exemple, quand on nous dit : étudier le tourisme, etc. On nous propose toujours... enfin, il faut qu'on fasse le lien entre des documents, des choses iconographiques. Des cartes aussi. Et ça manque souvent, je trouve dans les manuels. Soit, tu n'as que des photos, soit tu n'as que la carte, enfin, voilà, tu n'as pas toujours les deux. Je trouve que c'est intéressant... Chercheur D'accord. Donc, en fait, tu as un manque de données, en gros. I. G. 71 Voilà. Et puis, le problème des banques de données, c'est que tu es obligée d'aller à droite, à gauche. L'avantage du Retz, c'est vrai, je trouve qu'il est plus varié, et plus précis dans ce qu'il propose. Chercheur Mais, au niveau connaissances, toi, tu aurais besoin d'un balayage de CE2, CM2 pour toi? I. G. 72 Bien, oui. Que ce soit clair. Parce que moi, je pars avec mes connaissances de primaire, de collège, de lycée. C'est vrai qu'on n'a pas forcément la même vision de la géographie que... C'est un peu, je ne sais si tu as fait l'animation pédagogique sur les mesures. Quand tu vois un mathématicien parler des mesures, ce n'est pas la même chose que toi, quand tu parles des mesures. Chercheur Non, non, mais, je comprends bien ce que tu dis. Chercheur À l'IUFM, tu as fait PE1 et PE2? I. G. 73 Oui, surtout, que j'avais pris Histoire géo. Mais, cela ne fait que quand même un semestre. Chercheur En PE1, tu avais pris histoire géo? I. G. 74 En PE1, et c'est vrai que, finalement, parfois, cela pose plus de questions que cela n'apporte de réponses. Chercheur C'est-à-dire, pendant ta formation, ça t'a posé plus... cela ne t'a pas vraiment apporté en fin de compte? Si je comprends bien. I. G. 75 Si, cela m'a permis de voir les choses différemment. Mais, je ne suis pas sûre, j'ai pas... je ne suis pas sûre de mes connaissances par rapport, comment dire? Je n'ai pas su tout... synthétiser. Chercheur Et tu as fait des études de...? I. G. 76 D'allemand. Chercheur Oui, donc, cela n'a rien à voir. I. G. 77 Donc, en allemand, c'est vrai qu'on avait des cours d'histoire mais on n'avait pas de cours de géographie. Chercheur Et sinon, est-ce que tu as suivi des stages entre temps, en géographie? I. G. 78 Non. Tu en as vu beaucoup, toi, des stages de géographie? Chercheur Oui, il y en avait, quand même. Et, donc, ça, c'était quelque chose qui ne t'intéressait pas ou tu avais d'autres priorités? I. G. 79 C'est vrai que jusqu'à présent, j'ai favorisé d'autres matières. Chercheur Et pourquoi tu favorisais d'autres matières? Et pas celle-là, par exemple? I. G. 80 Bien, pour l'instant, je n'en ai fait que deux de stages. C'est assez limité quand même. Chercheur Oui, mais tu aurais pu en demander, par exemple, des stages. Pourquoi tu n'en demandais pas, par exemple? 489 I. G. 81 Parce que je n'en demande pas systématiquement chaque année parce que j'en ai fait un l'année dernière, je peux attendre. Chercheur Ce n'est pas quelque chose que tu demande systématiquement? I. G. 82 Pas systématiquement, je me dis : il faut un peu de temps pour l'avoir. Apparemment, il y en a qui arrive à l'avoir à chaque fois qu'il le demandait. Chercheur Eh, oui. Moi, je les demandais à chaque fois. I. G. 83 Le premier, c'était sur la lecture d'albums parce que c'était pour les cycles 2. Et, le deuxième, c'était sur l'histoire de l'art parce que c'est vrai ils ont un peu catapulté ça et on se demande où on met les pieds. I. G. 84 La France, c'est passé du CE2 au CM1, au CM2. Chercheur Ah, tu veux dire que... I. G. 85 Et, du coup, on est... Chercheur Je ne comprends pas bien
ce que tu veux dire. I. G. 86 Autant, en histoire, on reste sur le truc, le plan chronologique, quoiqu'il paraît que cela va changer. Tandis qu'en géographie, à
un moment, il fallait partir du cas particulier pour aller vers le monde. Après, il
a fallu faire
l'inverse. Et, après, on est revenu sur... quoi que non, nous, on fait
l'Europe et la
France. Mais, du coup... Chercheur Mais, ça, ah, oui, d'accord. I. G. 87 Alors, du coup, des fois, il y a des documents, ce n'est pas adapté au niveau que les élèves. Chercheur Ah, oui, je comprends ce que tu veux dire. Des élèves de ta classe. I. G. 88 Oui, voilà. Enfin, c'est trop facile ou c'est beaucoup trop difficile. Chercheur Ah, oui, par exemple, tu avais les documents pour des CM1. Mais, du coup, ils ne sont pas adaptés au CE2. Oui, cela te redemande de la recherche. I. G. 89 C'est ça qui est embêtant. Je suppose qu'ils vont les rechanger l'année prochaine, les programmes. Chercheur Et ça, ça te gêne, ça, à chaque fois qu'ils changent ou en fait tu fais toujours à peu près de la même manière? Est-ce que tu essaies de suivre ce qui est de nouveau? I. G. 90 De toutes manières, tu sais, nous, on est en plein dans les progressions d'école. Donc, voilà, quoi, ça change, tout le monde change. Et en sciences, c'était la panique parce que ce n'était pas dans mon manuel ce que j'ai à faire. Donc, il faut chercher à droite, à gauche. Bon, la science, c'est pire que la géographie.
490 Transcription de l'entretien de J.B. J. B., 5 ans d'ancienneté, 28 ans, PE1/PE2, Licence de biochimie. Chercheur
Je fais une étude sur les sources de documentation des maîtres en classe de géographie. J'essaie de savoir à partir de quels supports ils élaborent leurs cours, pourquoi ils prennent plus un support qu'un autre, qu'est-ce qui les fait choisir ce support? Ce n'est pas tant ce qui se passe en classe mais plutôt ce qui se passe avant qui m'intéresse. Pourquoi, par exemple, vous allez chercher sur internet, pourquoi vous prenez un manuel? Comment vous validez vos documents, comment vous choisissez celui-ci plus qu'un autre? Qu'est-ce qui fait que celui-ci a plus d'importance, plus d'intérêt?
J
.
B. 1
Moi, c'est simple, je récupère tout sur internet à chaque fois. Pour ce qui est cartes, par exemple, la plupart du temps, dans les cartes, je cherche soit si j'ai besoin ponctuellement d'une carte comme ça. Je cherche éventuellement sur Google une image, directement une carte. Mais, alors, à ce moment-là, j'essaie quand même de regarder, enfin, je prends la peine de vérifier, puisque souvent des cartes, il y en a qui sont très, très simplifiées. Elles sont mêmes parfois même erronées. Je vois sur l'Europe, j'avais utilisé des cartes, enfin, ce n'est pas sur l'Europe. C'est sur les continents. Bon, déjà, il y a plusieurs définitions des continents. Si on en définit 4, 5, 6, ou 7. Et, en fait, il y avait une carte qui montrait le continent, en fait, c'était l'Océanie, qui ne définissait pas l'Océanie correctement vis-à-vis des couleurs. Et, en fait, il y a une partie de, je ne sais pas c'est quel pays, il y a une partie de... l'Indonésie qui est asiatique et une partie que est sur l'Océanie. Et, en fait, ils avaient mis toute l'Indonésie... C'est vrai qu'il faut quand même vérifier. Des fois, les cartes sont tellement simplifiées, certaines, que finalement elles deviennent un peu erronées ou même par rapport à la frontière entre l'Europe, disons la frontière avec l'Oural. Des fois, c'est une frontière qui est complètement aléatoire. Chercheur Mais, alors, comment vous vérifier cela? Comment vous savez, vous, que c'est erroné par rapport à une autre carte? Qu'est-ce qui vous fait dire qu'une carte est meilleure qu'une autre, à ce moment-là? J. B. 2 Eh, bien, à ce moment-là, déjà, la première validation entre guillemets, c'est mes connaissances personnelles. Je me réfère à ce que je sais. Et, puis, après, c'est vrai que l'idéal c'est quand même la vérification sur support d'un livre, quoi. C'est vrai, que par exemple, un Atlas, on a tous un gros Atlas, chez nous, à la maison. Eh, bien, quand j'ai un doute, je vérifie dans l'Atlas parce que l'Atlas est plus précis, il est plus, enfin, j'ai toujours l'impression que l'Atlas est plus juste. Chercheur C'est un fois que vous avez un doute que vous faites cela en fin de compte? J. B. 3 Oui. Oui, je n'ai pas le réflexe de vérifier tout le temps, immédiatement, si la carte est juste. Si elle me paraît bonne, je considère que c'est bon, quoi. Et, je ne prends pas toujours la peine de vérifier à chaque fois si... Bon, après, ce n'est pas, jamais des cartes très, très compliquées non plus, quoi. Je pense qu'il y a des choses peut-être qui manquent, ou des choses comme ça. Chercheur Mais, alors, par exemple, quand vous cherchez... en fait, quand vous préparez vos leçons, vous utilisez particulièrement quel support? Est-ce que vous en avez un particulier? Quand cela fonctionne? J. B. 4 Non, pas particulièrement. Il y a principalement une source que
j'utilise. C'est cartable.net. Le site qu'ils mettent : le cartable de l'école. Chercheur Et, ça, vous faites ça en géographie? J. B. 5 Eh, bien, en fait, c'est dans tous les domaines. La plupart du temps. C'est vrai qu'en géographie, je n'ai pas beaucoup cherché, ah, si j'ai trouvé quelques trucs là-dessus. Mais, c'est plus, en fait, quand on veut trouver des préparations un peu toutes faites, ça. C'est-à-dire qu'il y a une séance ou une séquence qui est pratiquement toute pondue. Des choses comme ça, quoi. Chercheur Et donc, ça, vous la reprenez telle quelle? J. B. 6 Et donc, euh, le document, je le reprends. Et, en fait, j'essaie de le voir si pour moi, si ça me paraît. Parce que, comme je t'ai dit, en géographie, comme je ne suis pas. Je regarde le document si déjà pour moi, il me parle. Et, si déjà, je trouve que pour moi, c'est compliqué, généralement, j'évince, 491 ou alors, justement, je reprends que ce qui m'intéresse. Si parfois, je trouve ça vraiment très bien organisé, etc, bah, cela peut arriver que je le reprenne totalement. Mais, c'est quand même assez rare que je reprenne totalement les documents. Cela arrive que, des fois, sur un document, qui fait deux pages, il y a un quart de page ou une demi page qui m'intéresse. Ou un texte qui soit intéressant. Ou qui soit en lien avec ce que j'ai parlé, ou autres. Bon, là, je l'utilise. Et puis, sinon, j'aime bien aussi le site de Alain Huot. Pour les cartes. Et que cela, il est bien parce que les cartes sont généralement intéressantes. Donc, à ce moment-là... Chercheur Mais, alors, tous vos supports, vous
les récupérez sur internet, si je comprends bien. J. B. 7 La majorité. Parce qu'en fait, en classe, on n'a rien. Alors, même si moi, je peux avoir un livre, moi. En fait, je ne fais quasiment jamais de photocopies. Je n'aime pas beaucoup faire les photocopies. Chercheur Eh, bien, alors, comment vous faites alors pour faire la géographie J. B. 8 Alors, si, on a des photocopies, évidemment. Mais, ce que je veux dire, c'est que je ne fais pas beaucoup,... c'est-à-dire que je ne distribue pas en fait le support à tout le monde à chaque fois. Je fais pas mal sur le vidéo projecteur, par exemple. On projette, et on a tous le support ensemble. Donc, là, les élèves viennent montrer. Il y en a un qui vient indiquer, voilà. Bah, tiens, voilà, comme on va travailler sur les continents, il y en a un qui dit : tiens, c'est tel là, c'est ce continent là. En fait, il se déplace, il montre sur le tableau. Tout le monde le voit puisque je projette. Et, bon, la plupart du temps, on la trace en fait sur la carte, ils l'ont sur le... ils l'ont eux. Mais, c'est une. C'est-à-dire que je propose pas à chaque fois cinq cartes où ils vont à chaque fois découper, machiner, etc. Alors, c'est vrai que sur la géographie, je ne me prends pas beaucoup la tête, quoi. De ce point de vue là, quoi. Chercheur La géographie, c'est une discipline que vous faites toutes les semaines? J. B. 9 Non.
| 10,095
|
58/halshs.archives-ouvertes.fr-halshs-03284219-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,796
| 15,648
|
Photo 6 (D. Gaborieau)
Ça c'est un entrepôt qu'on a visité, qui se trouve à Chelles, qui est dédié à la presse (photo 6). Donc ça ce sont les images qu'on nous avait présentées au début, d'entrepôt automatisé. Et l'idée de la plupart de ces entrepôts dits automatisés, c'est qu'en fait les colis dans ces entrepôts circulent sur un convoyeur. Donc il y a un tapis roulant comme ça, avec une matière qui circule sur le tapis. Donc quand on le voit de loin - là c'est une photo qui est prise du bureau du chef d'équipe - ça a l'air de tourner tout seul. En Allemagne ou même en France, on commence à parler de logistique 4.0 pour ce type d'entrepôt. Mais en fait dès qu'on redescend dans l'espace de travail, on voit apparaître une nouvelle réalité du monde du travail dans la logistique aujourd'hui, un nouveau poste de travail : le poste d'injecteur (alors en l'occurrence ce sont des injectrices). C'est-à-dire que ce tapis roulant est alimenté par des humains, des ouvriers et des ouvrières, qui mettent les colis un par un sur le tapis roulant (photo 7). Encore une fois si on regarde toute la trajectoire, ici on n'a pas du tout une disparition des ouvriers, on a juste la transformation d'un métier ouvrier par la technique. Et c'est ce qui se passe la plupart du temps. Quand on parle de disparition des métiers, il faut considérer que c'est sûrement faux et qu'il y a eu plutôt une transformation. Ici la transformation est intéressante parce que mon propos était de dire que l'entrepôt devient de plus en plus une usine. Et les ouvriers des entrepôts travaillent de plus en plus comme des OS. Ici, on atteint vraiment j'allais dire le summum – je ne sais pas s'il y a un summum – mais un point relativement avancé de l'ouvriérisation qui est le travail posté. Photo 7 (D. Gaborieau)
Les ouvriers dont je vous parlais tout à l'heure se déplacent dans l'entrepôt. Ils allaient chercher leurs colis. Ils mettaient beaucoup ça en avant, par rapport aux autres formes de métier qu'ils avaient connues. Ceux qui ont travaillé dans l'industrie agroalimentaire par exemple, ils disent : voilà, au moins on se déplace dans l'entrepôt. Là, on est sur du travail posté donc on est vraiment dans l'ouvrier à la Charlie Chaplin. On ne bouge pas. Il y a un tapis devant nous et on se contente de faire passer ou d'injecter des colis sur le tapis. Le rythme d'injection dans cet entrepôt-là, pour des colis assez lourds vous voyez, ce sont des paquets de presse, c'était 500 colis/heure sur le tapis. Nous l'avons simplement visité. Je n'ai pas fait d'observation participante dans cet entrepôt, donc on ne sait pas quel est le tonnage journalier, mais les poids totaux qui sont injectés sur le tapis, on peut imaginer qu'ils sont énormes. Déjà, dans les entrepôts que je vous ai présentés tout à l'heure, les préparateurs de commandes soulèvent 5 à 6 tonnes par jour et par individu dans les produits type épicerie, 7 à 8 tonnes par jour et par individu si on va sur des produits type boisson avec des ports de charge du haut vers le bas ou du bas vers le haut, comme on le voyait, pour mettre sur la palette. Et puis, dans les fruits et légumes où c'est le plus lourd, je mesurais quotidiennement 10 à 12 tonnes de port de charges. Donc c'était très élevé. Et là a priori on est encore plus élevé. Même si ce ne sont jamais des charges lourdes C'est un changement important de la pénibilité dans le monde ouvrier : il n'y a presque jamais de charges lourdes dans les entrepôts mais un port de charges très très répétitif. Pour finir un peu sur ce point-là, moi je ne vais pas vous dire – et je trouve que c'était intéressant la manière dont c'était présenté tout à l'heure, moi je suivrai ça – je ne vais pas vous dire si cette prophétie de l'automatisation va se réaliser ou pas se réaliser. Ce qui m'intéresse c'est de voir ce qu'elle produit déjà : aujourd'hui, dans le secteur, on parle beaucoup plus de robot, d'automatisation et d'intelligence artificielle que de santé au travail et d'ouvriers. Photo 8 (D. Gaborieau)
Par contre, cette prophétie a un impact déjà présent au sens où, chez les ouvriers que nous interrogeons – c'est quelque chose qui nous semble assez fort actuellement – il y a une très forte représentation de leur travail et d'eux-mêmes, avec une croyance en l'obsolescence. Ces gens-là ont l'impression qu'ils vont disparaître. On leur dit qu'ils vont disparaître. Dans les entretiens annuels par exemple – on retrouve ça chez les caissières aujourd'hui également – l'encadrement leur dit : mais en fait, vous allez disparaître. Donc vous voyez bien que, dans la négociation professionnelle, c'est quand même un point important. Et voilà c'est un point qui est fort très fortement mis en avant. Et donc il y a une croyance comme ça en l'obsolescence, dans sa propre obsolescence, qui est à mon avis très problématique. Et forcément, tout ça génère une très forte résignation par rapport à la dégradation des conditions de travail, et même par rapport aux conditions de rémunération. Cette prophétie aussi, il faut bien voir – et ça sera vraiment mon dernier point – qu'elle permet de renouveler des idéaux. Elle permet de renouveler l'idéal du progrès technique en nous rassurant sur le fait que le progrès technique, même si ça n'a pas encore été le cas, va bien faire disparaître la pénibilité au travail, et de renouveler aussi l'idéal du capitalisme en promettant que le capitalisme va finir par ne produire que des emplois qualifiés. Si on remonte dans une trajectoire beaucoup plus longue, il faut quand même considérer que ces discours-là, de disparition de la pénibilité, sont des discours très anciens, et qu'en fait ils sont inhérents au monde industriel. D le début de l'industrialisation, il y avait déjà des philosophes, et notamment un qui était très connu qui s'appelait Andrew Ure. Au début du dix-neuvième siècle, Andrew Ure - c'était un peu une star en Europe - faisait la tournée des colloques, des réunions publiques pour donner son avis sur l'industrialisation. Et il y a une phrase qu'il répétait tout le temps, c'était sa punchline. Il disait : « vous allez voir, la plus parfaite des manufactures sera celle où on pourra bientôt se passer du travail des mains ». On était en 1832, en pleine époque des sweatshops (les ateliers de la sueur) du textile où il y avait des taux de mortalité très importants. DÉBAT AVEC LA SALLE
Annie JOLIVET
Je connaissais un petit peu un certain nombre d'images. On a vu des documentaires, etc. Mais la façon dont tu regardes les choses, c'est à la fois très percutant et très détaillé donc je pense qu'il va y avoir pas mal de questions qui vont ressortir. Alors y a-t-il des questions tout de suite?
Ludivine MAS
, ergonome Je voulais juste saluer la qualité, en effet, de cette présentation, de ce travail. J'ai travaillé, moi, pendant sept ans dans un groupe de transport et de logistique sous température dirigée, tout d'abord en tant que responsable d'une mission handicap et responsable d'un pôle qualité de vie au travail avec ma casquette d'ergonome. Et c'est vrai qu'on voit bien que vous avez vécu l'immersion dans ce milieu, parce que c'est très très bien dépeint en tout cas dans les conséquences, même les termes qu'on peut retrouver des personnes, « les belles palettes », etc. qu'on connaît en effet dans ces métierslà. Donc c'est juste plutôt un témoignage pour dire en effet c'est une réalité. Ça rejoint un peu ma réflexion de ce matin en disant : quel est aussi le monde un peu désirable Enfin voilà, quel monde on souhaite vers quel monde on souhaite aller? C'est vrai que les exosquelettes malheureusement, dans cette partie logistique, commencent aussi à apparaître, mais on peut se poser la question comme vous l'avez dit de : est-ce que ce n'est pas encore un pas de plus vers une perte d'autonomie et de liberté? Moi, les études que j'avais pu faire aussi montraient en termes de pénibilité physique tout ce que la commande vocale avait pu amener. C'est-à-dire qu'il y avait beaucoup plus de travail en temps masqué . Quand on avait le papier/crayon, on pouvait prendre le temps de lire sa ligne de commande, de souffler entre deux ports de charges, etc. Quand on a la commande vocale vissée sur la tête, du coup on enchaîne. Les déplacements se font en port de charges, et non plus sans port de charge comme ça l'était avec le papier. Donc c'est vrai que ça pose énormément de questions. Et avec une réalité sur la santé qui est terrible. Moi, je voyais régulièrement dans ma mission, au départ maintien dans l'emploi, on va dire, des cycles de deux ou trois ans avec des vagues de licenciements pour inaptitude, ou d'inaptitudes qui arrivaient dans les métiers de préparateurs de commandes, qui était assez affolants sur des populations très jeunes. Alors moi c'étaient plutôt des femmes de 20 à 25 ans, mais qui se retrouvaient inaptes au poste, au bout de deux ou trois ans même pas de métier. En tout cas bravo pour votre présentation, je trouve, qui dépeint très très bien la réalité en effet. David GABORIEAU Je ne l'ai pas précisé mais c'est vrai qu'en termes d'inaptitude, donc c'est un très gros souci dans le secteur. Les mesures qu'ont faites les personnels de l'INRS sur ce sujet-là montraient que, au bout de 73 Rapport de recherche du Centre d'études de l'emploi et du travail, n° 109, juillet quatre à cinq années, le personnel commence à multiplier des pathologies qui sont très diverses. Il n'y a pas UNE maladie du préparateur de commandes, comme il pourrait y avoir la silicose une maladie du mineur. En fait c'est le corps qui s'épuise. Moi, je trouve que ce ne sont pas des maladies. Je trouve que c'est important de dire ça. Ce ne sont pas vraiment des maladies, c'est une usure accélérée du corps. Même quand on dit « troubles musculo-squelettiques », alors c'est un terme qui est devenu intéressant aujourd'hui parce qu'on peut faire plein de choses avec ça, mais même ça, cette idée de troubles musculo Il y a un terme qui est employé de « pathologies d'hyper sollicitation ». Je trouve ça plutôt plus juste Hyper sollicitation, usure accélérée des corps, c'est concrètement ce qui est en train de se produire sans qu'il y ait UNE maladie très précise, et ce qui est d'ailleurs un gros problème pour la reconnaissance en tant que maladie professionnelle. Karen GEOFFROY Je suis responsable sécurité, santé au travail, handicap dans une administration publique. Donc on est bien loin du travail cadencé. Enfin encore un peu. Je voulais juste, en lien avec l'intervention de la dame qui était un peu plus bas, j'avais des questions sur justement la démographie de ces populations-là, sur le turnover et puis, comme elle l'évoquait justement, l'issue en inaptitude, ce que ça pouvait donner en termes de parcours professionnel pour des gens qui transitent par ce type d'activité. Voilà.
David GABORIEAU
Alors on est sur une population qui est plutôt jeune. Et plus on arrive dans les segments de l'emploi ouvrier de la logistique, où les conditions de travail sont difficiles, plus les gens sont jeunes. C'est-àdire que, quand on est sur un gros entrepôt qui appartient à Logidis par exemple, qui est la filiale intégrée de Carrefour, là il y a encore la possibilité de faire carrière jusqu'à 40 – 45 ans. Au-delà des 45 ans, c'est très difficile de rester préparateur de commandes. Et comme il y a très peu de possibilités de carrière, ce sont des gens qui sont replacés sur des postes. Alors il y en a une toute petite partie qui arrive à trouver des postes un peu plus préservés, des postes de petite administration. Ceux qui restent encore, parce qu'un des effets aussi du progiciel, ça a été de réduire très fortement dans l'entrepôt tous les postes de petite administration, de validation de l'arrivée du camion, tout ce qui circulait sur du papier en fait. Tout ça s'est assez restreint. Donc il y en a quelques-uns qui arrivent à se raccrocher à ce type d'emploi. Et les autres en fait on essaye de leur trouver, dans ce type d'entrepôt, donc des entrepôts qui sont plutôt plus encadrés, avec aussi des syndicats qui sont mieux implantés, on essaye de trouver des postes plus préservés. Et notamment LE poste plus préservé, alors c'est soit les caristes qui stockent les colis, et qui eux travaillent avec le chariot élévateur comme on se l'imagine souvent, qui permet de lever les fourches en hauteur pour stocker les palettes. Donc ça, c'est LE poste qui permet de rester un petit peu plus longtemps. Donc quand on vieillit dans l'entrepôt systématiquement on devient cariste. Sauf que là aussi, en fait, il n'y a pas vraiment de place pour tout le monde. Donc ceux qui restent sans devenir caristes, ils deviennent ramasseurs de poubelle. Ça c'est un poste qui est apparu avec le problème sanitaire. Auparavant ça n'existait pas. Oui. Ça me fait penser typiquement à l'évolution de certains métiers techniques dans la fonction publique : les jardiniers, les plombiers, ou peut-être un peu moins les électriciens. Je ne dis pas qu'ils s'économisent plus mais que c'est typiquement un peu moins physique. Et justement sur ces recyclages en gestionnaire de déchets de proximité, moi, j'ai quelques exemples qui me viennent à l'esprit où finalement – alors peut-être que c'étaient des bons exemples – de personnes qui étaient tellement usées par le travail que ce reclassement dans une activité qui était quand même avec une forte plusvalue en termes d'interfaçage social au contraire était une fin de carrière qui visiblement leur était plutôt douce, et valorisante. David GABORIEAU Alors par contre, j'ai bien souligné : ça, ça se passe dans les entrepôts plutôt des filiales intégrées. Du coup quand on va dans les entrepôts de la sous-traitance - ce que permet de faire le fait de passer par l'intérim par exemple pour faire de l'observation : si j'étais passé par des accords avec les entreprises, je n'aurais certainement pas pu observer ce genre d'entrepôt - au fin fond des zones industrielles et très peu modernisés, là il n'y a pas du tout cette possibilité-là. Donc pour les CDI ce sont souvent des classements en inaptitude. Et dans certaines entreprises – il y a un scandale qui a émergé, notamment chez Lidl – il n'y a pas de reclassement pour les inaptes, donc parfois on cherche à les faire partir. Et quand on ne cherche pas à les faire partir,
s souvent – et c'est ça le phénomène le plus massif – ils partent d'eux-mêmes. Il y a un effet très fort dans ce secteur-là, puisqu'il y a une dégradation accélérée des corps, puisque les ouvriers s'en rendent compte. Pour moi c'est un point très important : il y a cette idée que les ouvriers n'ont pas conscience de leur santé, je crois que c'est une erreur. Les ouvriers voient autour d'eux les problèmes de santé. Donc en fait les gens s'en vont d'eux-mêmes. Et quand on leur demande : c'est quoi votre projet? Qu'est-ce que vous voulez faire dans l'avenir? La plupart ils veulent sortir. Donc le moyen de résister en fait à ça, le meilleur moyen, c'est de s'en aller, d'essayer de quitter cet univers-là. Donc il y a beaucoup de turnover, non seulement pour ça mais parce que ce sont des entreprises qui utilisent beaucoup le turnover. Ce turnover est aussi généré par les ouvriers qui s'en vont. Donc il y a un aller-retour qui se produit avec l'entreprise qui finalement est toujours gagnante, puisque ce turnover-là aussi est une façon de ne pas gérer le problème sanitaire, puisque les gens s'en vont d'eux-mêmes pour se préserver. Et puis, sur les parcours professionnels, du coup il y en a très peu. Mais quand ces gens-là quittent l'entrepôt, ils cherchent aussi à quitter le monde ouvrier. Et en fait, il y a des professions vers lesquelles ils s'orientent très fortement, comme ce sont des jeunes de 25 – 35 ans très souvent, plutôt issus des milieux populaires, ils vont beaucoup vers des métiers de type Uber par exemple, ou les métiers du transport. Ce sont des gens qui voudraient beaucoup devenir chauffeurs routiers. Donc la carrière qu'ils peuvent parfois faire c'est celle-ci. Sauf que chauffeur routier c'est un permis qui coûte très cher, dont les formations sont assez longues. Et finalement il y en a assez peu qui ont accès à ça. Mais c'est vraiment ça : pour eux la carrière professionnelle consiste à essayer de sortir de ça. Doctorant en sociologie, Cnam-Lise Je travaille sur les livreurs à vélo. Et en fait, je voulais savoir si vous avez observé, malgré l'usure qui pouvait venir, etc. à terme, des formes de ludification ou de jeu en fait, avec la commande vocale du coup de plaisir ou de micro-plaisir au travail, associé à la cadence, associé au fait d'aller vite, etc. Enfin ce sont des choses qu'on peut observer dans des univers qui sont très technicisés. Il y a des travaux sur Mac Donald qui montraient notamment comment, finalement, dans un monde où on n'a plus aucune marge de manoeuvre, c'est le fait d'aller vite qui procure une forme de plaisir. Voilà. Estce que ce sont des choses que vous avez pu retrouver? Et est-ce qu'on trouve des différences entre – alors je ne sais pas s'il en reste mais – ces jeunes dont vous avez parlé qui ne parlent à personne et de du d'études de l'emploi et du travail, ° 109, juillet qui viennent d'arriver, et qui finalement peut-être s'adaptent plus à cet univers parce qu'ils n'ont pas connu ce qui existait avant dans ce monde-là, et des personnels plus anciens? David GABORIEAU Alors oui, j'en ai parlé du coup un petit peu dans la présentation. Dans les jeux, il y a tous les jeux de mots, qui sont vraiment des jeux qui sont beaucoup utilisés. Et puis en fait il y en a plein. Donc on est vraiment dans un univers ouvrier. Et c'est là qu'on peut relativiser un peu l'image très sombre de l'entrepôt. On est dans un univers ouvrier donc il y a beaucoup beaucoup de blagues, beaucoup de sociabilité malgré le fait que c'est difficile de parler dans le travail, qu'on n'arrive pas à s'extraire de la tâche. Des moments de pause par exemple sont des moments de très forte animation. C'est assez drôle. Il y a beaucoup d'humour dans les entrepôts. Donc dans les jeux, il y a les jeux de mots. Il y a aussi le fait de faire une belle palette maintenant, de faire une belle palette sous contrainte – c'est-àdire que tout est fait pour que ça ne marche pas, mais les gens jouent à le faire. Donc les jeunes par exemple jouent beaucoup à ça. Et du coup le référent « belle palette » c'est devenu un jeu. Avant c'était un vrai savoir-faire qui était mis en avant comme une professionnalité. Aujourd'hui c'est un jeu auquel jouent certains ouvriers, pour faire passer le temps – sachant que s'il ne marche pas très bien, la commande ne va pas forcément bien marcher très longtemps. Mais voilà, ça peut être une forme de jeu. Et puis le jeu quand même qu'on retrouve le plus, et qui est venu remplacer le savoirfaire de la belle palette encore plus fortement je crois, c'est le jeu « aller vite ». Aller vite, comparer sa productivité. Donc tous les jours on sait combien on a fait de colis. Enchaîner les colis les uns après les autres. C'est faire du « tac tac tac ». C'est comme ça que les ouvriers le disent tout le temps. Pour être un bon préparateur de commandes aujourd'hui, pour avoir sa prime de productivité, il faut savoir faire du « tac tac tac », c'est-à-dire enchaîner les tâches sans se poser de questions. Il y a plein de jeunes ouvriers, ceux qui ne vont pas rester, ceux qui vont faire autre chose, qui théorisent beaucoup ça et qui disent que pour être un bon préparateur de commandes aujourd'hui il faut fumer un pétard avant d'aller au travail. Et que c'est une très bonne chose pour le tac tac tac. Donc les jeux qui peuvent perdurer dans ce système-là, ce sont des jeux de cet ordre-là, des jeux avec le rythme de travail. Et puis, cette différence entre jeunes et anciens, alors on le voit avec ce que je viens de dire. Pour les jeunes, il y a beaucoup cette idée-là de trouver des moyens de jouer dans l'univers très contraint. C'est très fort dans la façon dont je l'ai dit, et d'associer ça avec des choses de sa vie hors travail – donc associer une consommation de cannabis avec le travail, le fait qu'il ne faut pas trop réfléchir. Donc il y a tout un univers comme ça qui se joue autour de ça. Il n'y a plus du tout d'alcool dans les entrepôts. C'était quelque chose de très très présent auparavant. Jusque dans les années quatre-vingtdix il y avait beaucoup d'alcool encore dans les entrepôts. Aujourd'hui il n'y en a presque plus du tout. Par contre il y a beaucoup de cannabis. Ça c'est quelque chose qui circule beaucoup. Pour les anciens ce n'est pas le cas. Donc eux ils ont abandonné l'alcool et ils ne l'ont pas remplacé par le cannabis. Et puis, pour les anciens en fait, ce qu'il faut dire sur les anciens c'est qu'il y en a très peu. De fait les gens restent peu. Physiquement c'est très peu possible. Beaucoup s'en vont et cherchent autre chose. Donc il en reste peu. Et c'est un point qui est très important à souligner puisqu'en fait, ce que moi je vous ai dit, c'est-à-dire cette trajectoire sociotechnique de l'entrepôt, il faut bien avoir conscience qu'aujourd'hui, il y a très peu d'ouvriers dans l'entrepôt qui sont capables de la faire. Cette mémoire-là, elle n'existe presque plus. La plupart des gens que je rencontre aujourd'hui dans mes enquêtes sont des préparateurs de commandes qui n'ont connu que la commande vocale. Donc le fait qu'il n'y ait pas de remise en cause aussi des transformations du travail vient de là en fait : la mémoire est très peu présente. Et elle disparaît très vite du fait du turnover. Fabienne BARDOT, médecin du travail Pour répondre sur les maladies professionnelles, c'est vrai que j'ai un secteur professionnel où il y a énormément de logistique comme partout. Et les maladies professionnelles il y en a beaucoup. Et 76 Rapport de recherche du Centre d'études de l'emploi et du travail, n° 109, juillet c'est vrai que on en déclare très très fréquemment. Ce sont majoritairement les épaules. Une épaule abîmée c'est une sortie de l'entreprise. Ce sont les canaux carpiens, et puis les pathologies lombaires. Ce que je voulais dire, c'est qu'il y a quand même certaines entreprises où on arrive à faire tenir les gens. En particulier j'en ai une, je peux vous dire, c'était l'ancienne usine Quelle qui a fermé, et qui a été reprise par une autre entreprise de logistique. Donc tout le personnel féminin ce sont des vieilles femmes. Toutes. Je leur ai fait la courbe des âges : plus de 50 % sont des femmes qui ont plus de 50 ans. Elles sont toutes un peu abîmées, un peu usées. Elles n'ont pas envie de partir. Et donc dans l'entreprise, j'ai essayé de négocier qu'elles puissent avoir des sièges assis-debout, ce qui a été installé. Il n'y a pas de commande vocale. Pour être un petit peu triviale je vais dire que ce n'est pas du l'aspect Amazon. C'est un petit peu plus « bordélique », ce qui est très bien, parce que ça leur donne des marges de manoeuvre pour être un peu moins sous contrainte de temps. Et en plus, j'ai un peu expliqué l'histoire des expositions anciennes et du vieillissement, de l'effet cumulé. Donc les quotas, on ne leur impose pas de les faire, ce qui fait qu'elles arrivent à tenir jusqu'à peu près au départ de la retraite. Ça ne veut pas dire que je ne mets pas des inaptitudes pour des problèmes graves. Et puis je voulais aussi dire là, ce que vous décriviez pour les jeunes, le tac tac tac, ce sont quand même des procédures défensives connues, enfin utilisées, et qui marchent bien pour se protéger de l'insoutenable. Ça ne marche pas longtemps. La preuve. Enfin vous disiez qu'ils partaient assez vite. Mais en fait ce sont des procédures défensives, qui protègent de la monotonie, de l'absence d'autonomie. Voilà, ce n'est pas un monde merveilleux. David GABORIEAU Non, c'est sûr. Après, du coup, ça permet de souligner un point important ce que vous venez de dire. Dans la présentation ça a donné un aspect un peu globalisant mais en fait, quand on regarde dans le détail, les conditions de travail et les types de souffrance ou de maladie ne sont pas les mêmes dans tout le secteur. C'est un secteur qui est très très large, la logistique, et qui est encore assez peu étudié. En ce moment il y a plusieurs enquêtes qui sont en cours, de doctorants notamment, ou un certain nombre de thèses qui viennent d'être finies. Mais 800 000 ouvriers c'est très large. Ils n'ont pas tous exactement les mêmes conditions de travail. Et selon le type de produits qu'on va manipuler notamment, on n'aura pas les mêmes souffrances, donc pas les mêmes niveaux du corps : ça peut être canal carpien, les épaules, le dos. Bon la lombalgie, c'est quand même un truc qui traverse un peu tout le secteur. Mais quand même, selon les différents types de produits, les différents types d'entreprises, on n'a pas toujours les mêmes choses. Donc c'est bien de ne pas trop globaliser comme je l'ai fait, et de souligner qu'il y a grosses différences. Nous, on le voit très bien, par exemple, parce qu'il y a une partie très importante, c'est 20 à 30 % des mains-d'oeuvre ouvrières qui travaillent en intérim, et ces gens-là, que nous on rencontre, qui travaillent en intérim, ils circulent d'un entrepôt à un autre. Donc nous, dans les récits, c'est quelque chose sur laquelle on insiste beaucoup. Eux ils ont un avis, et une connaissance du secteur qui est importante. Et ils décrivent très bien ce que vous venez de dire : « Dans tel entrepôt, il n'y a pas la commande vocale », « Là, il y a certaines primes », « Là, le management, il est sympa », « Là, le management, il n'est pas sympa ». Et il y a une phrase que l'un d'entre eux nous a dite. Il nous a dit : « Oui. Alors du coup il y a quand même plein de différences, mais de toute façon c'est la zone ». Et puis c'est un jeu de mots puisque c'est la « zone logistique », mais c'est la zone dans le sens où bon il n'y en a pas un parfait. Mais par contre, à certains moments, ils peuvent être amenés à choisir l'un ou l'autre. Et ça on le voit beaucoup dans les carrières de femmes. Alors je n'en ai pas parlé, mais dans le projet ANR on a enquêté des entrepôts où il y avait majoritairement une main-d'oeuvre féminine. Donc il y en a quelques-uns. C'est assez rare puisqu'il y a plus de 85 % d'hommes dans le secteur. Et encore plus quand on regarde seulement les ouvriers. Mais il y a quand même certains entrepôts qui sont très majoritairement féminins. Effectivement dans ces entrepôts, dans certains de ces entrepôts, on a vu des conditions de travail qui étaient plutôt protégées. Des rythmes plutôt plus lents. Et même dans les entrepôts parfois plutôt masculins, il y a des entrepôts qui font ça aussi. Par contre, quand on revient sur nos intérimaires, il y en a plein, ils aiment bien y aller de temps en temps, dans ces entrepôts-là par exemple, mais pas trop longtemps. Pas trop longtemps parce que les salaires sont plus faibles. Et ça c'est très fort. Les salaires des ouvrières du secteur sont beaucoup plus faibles que ceux des ouvriers. Alors c'est presque le même taux horaire. Par contre, il n'y a pas de prime de productivité, le travail est plus préservé, mais il y a moins d'heures supplémentaires. Du coup c'est un moyen de se préserver. Et nous, on a certains ouvriers qui, explicitement, vont deux à trois mois dans cet entrepôtlà dans l'année, pour faire une pause, pour se reposer. Et ensuite ils vont repartir dans l'entrepôt où ils font 20, 30, 40 heures supplémentaires par mois et ils touchent 200 à 300 € de primes de productivité en plus, donc ça leur permet d'atteindre des niveaux de salaires parfois proches des 2 000 €. Donc en fait, la pénibilité, c'est non seulement très différent d'un entrepôt à un autre, mais du point de vue des ouvriers c'est aussi des moments de vie. Soit ça peut être deux mois - deux mois - deux mois mais souvent aussi, c'est On voit des ouvriers jeunes qui vont choisir certains entrepôts où ils gagnent beaucoup d'argent, parfois cumuler les missions en intérim, et puis à 30-35 ans, un moyen de perdurer ça va être d'aller vers des entrepôts où il y a moins de pénibilité. Et c'est aussi le cas pour les femmes. Alors les femmes qu'on rencontre, qui ont 40-45-50 ans par exemple, dont vous parlez, ce sont beaucoup des femmes qui ont travaillé dans le secteur du nettoyage ou du care. Soit elles n'en peuvent plus du care, émotionnellement elles n'ont plus du tout envie de faire des métiers du care. Et dans l'entrepôt en fait elles trouvent ça. Elles trouvent quelque chose qui n'est pas de cet ordre-là, et qui peut leur permettre de sortir un peu de ça. Soit elles ont fait des métiers très pénibles, le nettoyage par exemple. Et quand elles ont travaillé dans le nettoyage, quand elles arrivent dans l'entrepôt, elles trouvent ça plutôt plus reposant à condition de trouver un entrepôt où la pénibilité ne soit pas trop élevée. Par contre c'est pour des salaires très faibles. Et du coup ce sont des femmes qui, avec dix quinze ans de carrière parfois, en fin de carrière, sont toujours à des salaires de 1 100 ou 1 200 €. Valérie ZARA – MEYLAN, ergonome, Cnam - CRTD et CEET, GIS CREAPT Une question complémentaire. Et ces mobilités-là, elles sont à la demande des salariés? Et ils les obtiennent lorsqu'ils les demandent? David GABORIEAU Alors ce sont des
mobilit
és
contraintes.
D'
un certain côté, la mobilité Et puis nous
,
on
a toujours tendance
à valoriser
la
mobilité
. Là, dans ce cas-là, il
faut
quand même bien dire que ce
sont des mobilités contraintes. Ce sont des gens dont la mobilité est toujours contrainte –
contrainte
au
sens
où
elle est
très restreinte. De toute façon ça reste dans un univers ouvrier, avec des pénibilités, je vous ai dit, qui sont parfois moindres mais qui en fait ne font qu'évoluer. C'est un petit peu mieux d'un certain point de vue, et puis pas beaucoup mieux d'un autre point de vue. Donc ce sont des mobilités contraintes dans l'univers qu'ils traversent, mais aussi contraintes par le fait qu'il y a beaucoup d'emplois en intérim ou des CDD de courte durée, et que de toute façon, ils sont obligés de bouger. Et ce que font les entreprises avec l'intérim beaucoup en logistique, c'est générer de la mobilité non pas en raison d'évolutions de l'activité, de pics d'activité, de baisses d'activité, mais une entreprise aujourd'hui ne peut pas embaucher plus de seize mois un intérimaire. C'est un cas qu'on retrouve beaucoup dans le secteur. C'est l'entreprise qui embauche seize mois un intérimaire. Ensuite il a six mois de carence. Donc là il va aller voir dans d'autres entrepôts. Et il revient. Au bout des six mois de carence, il revient dans l'entrepôt de départ. Il y a des gens qui travaillent dix ans comme ça, dans le même entrepôt. Donc ils sont toujours dans le même entrepôt, mais ils ont connu six mois par-ci, six mois par-là dans plein d'autres entrepôts. Pour nous d'ailleurs c'est intéressant. Alors à la fois c'est une mobilité contrainte, mais il y a toujours ce côté-là. Comme ils ont cette mobilité, ils ont aussi un certain regard sur le travail. Ils connaissent très bien l'activité logistique, très bien les organisations ssez critique, qui est intéressant. Mais tout ça reste de la contrainte. Il faut équilibrer positif/négatif mais c'est Anne-Marie MATHON, psychologue du travail et étudiante en ergonomie Vous avez parlé de santé physique, un petit peu de santé mentale. J'aimerais vous poser la question : quelles sont les spécificités dans cette entreprise ou dans ce type d'activité en ce qui concerne la santé mentale? Vous avez bien dépeint les stratégies de défense. Mais est-ce qu'il y a de la dépression? Est-ce qu'il y a d'autres formes d'addiction, du style les médicaments? Est-ce qu'il y a des troubles du sommeil? Est-ce que ça génère peut-être de l'irritabilité? David GABORIEAU Alors pour répondre à cette question qui à mon avis est très intéressante, d'abord il faut dire que tout ce qui concerne la santé mentale, et même les mots qui sont utilisés pour décrire la santé mentale, font assez peu référence dans un univers comme le monde ouvrier. Ce sont des gens qui ne sont pas habitués à exprimer leurs problématiques avec ces critères-là, avec ces termes-là. Et c'est intéressant par ailleurs, il y a une entreprise que j'ai observée qui a voulu mettre beaucoup en avant la thématique du stress dans l'entrepôt en disant : « mais en fait les gens stressent trop ». On sait que le stress a un côté individualisant qui pose problème quand on fait de la santé au travail. Mais ils se sont dit : « Voilà. C'est quand même intéressant. On va parler de stress ». Ça a été très peu reçu par les ouvriers qui n'ont jamais voulu revendiquer cette catégorie, alors qu'ils auraient pu s'en servir aussi pour se défendre, mais ça ne faisait pas écho à leur ressenti. Et puis plus largement dans les classes populaires, ce sont des référents qu'on utilise assez peu, sauf certains cas peut-être. Deuxième chose, c'est aussi qu'il y a des collectifs de travail qui restent assez soudés. Quand je disais qu'on était dans un monde ouvrier, c'est aussi un monde où la séparation entre nous (les ouvriers) et eux (les patrons ) est très nette. Donc il y a des modes de défense, des mécanismes de défense qui sont de cet ordre-là, qui ne passent pas forcément par le syndicat, mais qui peuvent se retrouver dans des interactions, par exemple de face-à-face entre plusieurs ouvriers et des chefs d'équipe, de face-à-face virulent voire physique. J'ai vu beaucoup de gestes comme ça d'ouvriers qui poussent ou qui insultent, ou qui répondent comme ça de façon très virulente. Donc il y a aussi des mécanismes de défense qui sont de cet ordre-là. Je me suis un peu éloigné mais dans les troubles aussi – ça c'est intéressant mais c'est difficile à analyser – ce ne sont pas forcément des troubles du sommeil. Il y a quand même certaines blagues, qui sont souvent dites sur le ton de la blague, mais sur le fait qu'on entend la commande vocale la nuit, qu'on en rêve. Dans le même ordre des choses sur la déformation du langage, le fait d'utiliser plus souvent qu'avant les mots clés, le « OK » notamment. On dit 3 000 fois « OK » par jour quand on travaille en entrepôt. Et effectivement il semblerait qu'on ait tendance – il n'y a aucune étude sérieuse là-dessus – les ouvriers disent qu'on aurait tendance à plus l'utiliser. Ou comme ils disent beaucoup « répétez » : à leur domicile leur femme leur dit quelque chose, ils ont mal entendu, et au lieu de dire « excuse-moi » ils vont dire « répéter » à leur femme. Alors j'ai bien dit, ça c'est souvent dit sur le ton de la blague. C'est compliqué à analyser. Moi je pense que ça existe. Très clairement ça existe. C'est tout à fait possible. Ils répètent sans arrêt donc ça peut amener des troubles sur le langage. Moi je ne le mets pas trop en avant parce que ça ne me semble pas prioritaire dans la situation, dans tout ce que j'ai observé par rapport aux dégâts physiques. C'est plus anecdotique. Par contre ce qui m'a beaucoup intéressé c'est la crainte que ça suscite. Dans ce vocabulaire du robot qui est souvent employé, la crainte d'une contamination du langage est assez forte chez les ouvriers. Et elle est exprimée au travers de ce vocable du robot. Mais moi ce que j'ai assez vite compris quand même, c'est que les gens qui faisaient beaucoup de blagues sur ça, ou qui en parlaient beaucoup, c'étaient beaucoup les jeunes, les étudiants. Tous ceux qui n'allaient pas rester, 79 Rapport de recherche du Centre d'études de l'emploi et du travail, n° 109, juillet ceux qui allaient partir. Les ouvriers qui étaient là depuis plus longtemps le disent parfois : « Et puis, bon, c'est un peu des blagues. Et en vrai, j'ai surtout mal au dos ». Et eux n'en faisaient pas trop non plus là-dessus, même si c'est présent. C'est présent, et en tant que crainte de contamination du langage c'est important de le prendre en compte aussi. Annie JOLIVET Tu n'as pas mentionné s'ils étaient tous de jour ou bien s'il y avait des rythmes de nuit. David GABORIEAU Jour et nuit. Oui. Ce sont des entrepôts qui, pour une bonne partie, tournent jour et nuit. Annie JOLIVET Non mais ça peut être sympa, ça aussi, en termes d'effets sur la santé mentale, la mémoire. Alors peut-être pas chez les jeunes, mais la désynchronisation, ça peut à la fois favoriser parce qu'ils ont des rythmes décalés mais ça peut aussi contribuer à ce qu'ils se décalent. David GABORIEAU C'est pour ça qu'ils arrivent à tenir plusieurs emplois, plusieurs métiers en intérim en même temps aussi. Ils travaillent jour et nuit parfois, sur des périodes courtes, mais c'est assez fréquent quand même. Fabienne BARDOT Dans les entreprises que j'ai, donc qui ne sont pas sur le fonctionnement par la commande vocale, au niveau psychique ce ne sont pas vraiment les pathologies qui sont les plus inquiétantes. Ce sont vraiment les pathologies ostéoarticulaires. En revanche on peut voir des conflits mais ce n'est vraiment pas spécifique. Je vais quand même rajouter : cette commande vocale, ce « OK » à répétition, ça induit une espèce de pensée automatique. Ce sont exactement les mêmes processus que ce qu'avait décrit Le Guillant chez les téléphonistes. C'est exactement la même chose. C'est la névrose des téléphonistes. C'est-àdire qu'on ramène à la maison l'automatisme qu'on acquiert avec une grande difficulté pour se protéger. Et on ne s'en défait que lorsqu'on sort de l'entreprise. Serge VOLKOFF Juste, je complète parce qu'on est en train de parler d'un phénomène analysé il y a soixante ans! Toi, tu le connais, mais c'est pour dire que, par rapport aux réflexions que
nous avons sur l'avenir, voilà on est en train d'évoquer une analyse de terrain menée il y a soixante ans. David GABORIEAU Et puis ce que je viens de dire là, sur cette idée de la contamination de la voix ou des choses comme ça, donc à la fois Le Guillant le montre très bien, mais à la fois aussi la façon dont moi je l'interprète ça vient beaucoup de lui. C'est-à-dire, ne pas se concentrer sur un phénomène uniquement psychologique et du coup aller vers l'échelle individuelle. Le Guillant fait beaucoup attention à l'échelle collective, et parle beaucoup aussi des peurs que les gens ont de ça. Enfin de le
penser comme
ça, ça vient vrai de Et ça je Une dernière question oui. Dans la fonction publique territoriale on n'est pas directement concerné par cette problématique, mais moi je me demande si là on observe un changement de modèle de l'homme au travail, ou on est dans un changement qualitatif. Là j'ai l'impression qu'on est dans une optimisation du travail. On a accru le prescrit et le contrôle de l'individu. On est toujours dans le même modèle. Contrairement à des modèles qui sont plus coopératifs ou qui reposent plus sur l'individu responsable de son propre travail – bien qu'ici on parle aussi d'autonomie. Et on est encore sur de la liberté individuelle au départ, enfin c'est ce que vous disiez. Et ça fait penser aussi à des modèles très politiques,
très
libertaires
américains
, nord-américain
s, qui
vien
nent influencer ces conceptions du travail –
not
amment chez
Amazon
qui est une firme nord-américaine
. David GABORIEAU Alors oui effectivement. Sur l'idée d'optimisation, c'est vraiment ça le principe. Et j'en profite pour souligner aussi que, si ce que je dis paraît parfois un peu sombre – c'est clairement un cas où la technologie a des conséquences rudes – c'est parce qu'on est dans un secteur aussi, la grande distribution, et la logistique plus en général, qui produit des choses comme ça. Alors je pense que ce n'est pas partout aussi évidemment problématique et aussi rude. Mais c'est important de considérer que ça, ça existe. Et que du coup quand on pense technologie au travail, il faut aussi inclure
type de cas, et ne surtout pas s'engager dans des discours merveilleux (c'est là-dessus que je concluais). Grande distribution, clairement c'est un secteur qui recherche de l'optimisation mais d'une façon permanente. Et rechercher l'optimisation, ça veut dire aussi ne pas penser très loin en avant et ne pas penser à beaucoup de nouveaux modèles. Il y a très peu de réflexion globale sur l'organisation du travail. L'encadrement le dit en permanence dans la grande distribution. Ils n'ont aucune possibilité d'anticiper au-delà de quelques mois. Tout est fait au jour le jour. Donc c'est aussi pour ça que ce secteur produit des choses comme ça. Par contre, quand je dis « tout est fait au jour le jour », j'en profite aussi – ça revenait dans la présentation précédente, je trouve que c'est vraiment intéressant – de plus en plus je crois qu'aujourd'hui, on amène une analyse, une réflexivité après coup, avec aucune possibilité d'y penser en amont. Moi je pense qu'un outil comme celui-ci, bien analysé, même avant mise en place, on pouvait quand même prévoir qu'il y a quelques trucs qui ne fonctionneraient pas très bien. C'était tout à fait possible. De toute façon, ça n'a jamais été dit mais en fait, quand ça a été installé en France, il y avait déjà une étude américaine – alors qui était très peu accessible – mais sur un entrepôt Wal-Mart où ça avait été mis en place. Et en fait ils savaient très bien que ça augmentait la productivité individuelle des préparateurs de commandes de 15 %. Ce qui est assez rare en fait, 15 % de productivité pour un individu qui fait à peu près la même tâche sans changement d'organisation, c'est beaucoup. Et quand on augmente de 15 % la productivité individuelle, on peut se douter que le corps ne va pas forcément suivre. Donc voilà c'est un cas assez rude de ce point de vue-là. Et puis je trouve que c'est intéressant aussi de dire qu'il n'y a pas de transformation de modèle. Mais je crois que c'est souvent ça quand même les technologies. Alors peut-être que là aussi il faudra voir. C'est la grande distribution qui est un secteur un peu à part, et qui n'anticipe pas beaucoup, mais je crois que c'est quand même beaucoup le cas ailleurs. C'est-à-dire que les , ce ne sont pas toujours des choses extraordinaires. Aujourd'hui tout le monde nous parle d'intelligence artificielle. Dans plein d'entreprises, dans plein de domaines, ou en tout cas dans le monde industriel, l'intelligence artificielle, ce sont des trucs comme ça, c'est la commande vocale. Ce ne sont pas des choses extraordinaires. C'est juste : on a réussi à imposer un script à travers une voix numérique, pas très sexy – vous avez entendu la voix, elle est très mécanique en fait. Et ce n'est pas une transformation aire. C'est juste un casque qui ne coûte pas très cher qu'on met sur les oreilles des personnes. Et c'est beaucoup ça en fait, le changement technique. Et il faut revenir comme ça à des choses concrètes, pour voir que dans beaucoup d'endroits c'est ça. Pour le moment. Alors peut-être que ça va un peu évoluer, mais moi, je n'arrive pas à croire que, sous prétexte d'intelligence artificielle, de robot ou d'automatisation, on ait tout d'un coup un gap extraordinaire qui nous ferait basculer dans un nouveau monde. C'est pour ça que je revenais en arrière sur les débuts de l'industrialisation pour bien insister sur cet effet de très longue durée, avec le travail qui se transforme, qui évolue, avec des petites choses comme la commande vocale, des trucs plus gros parfois, mais sans qu'il y ait un basculement monstrueux. Et dans les années à venir, l'hypothèse d'un basculement énorme, d'une disruption – c'est le terme qui est utilisé pour dire « vraiment cette fois, ça va changer » – cette hypothèse-là elle est un peu forte. Et il y aura beaucoup de petites choses techniques comme ça, qu'on pourrait anticiper en termes de répercussions sanitaires. C'est assez simple. Pour l'instant ce n'est pas fait, mais ça ne me semble pas si compliqué. Et je pense qu'il y a un point qui revenait beaucoup dans la présentation précédente aussi : à un certain moment il faut encadrer tout ça. Là il y a un encadrement législatif du travail. Alors ce n'est pas du tout le discours à la mode mais très clairement il y a un problème d'encadrement législatif. Ça me semble assez simple sur des technologies comme celles-ci de mettre en place quelque chose qu' fait déjà dans d'autres secteurs. Je pense à l'industrie chimique, par exemple. Il y a un composant chimique qui très clairement est connu comme étant problématique, on est en capacité de l'interdire. Aujourd'hui, avec des nouvelles technologies, on ne sait pas faire ça. On ne sait pas faire ça parce qu'il n'y a pas de pensée de ça encore. Je pense que c'est vers ça qu'il faut être prêt à aller. Je ne vois pas comment en sortir autrement. Annie JOLIVET Puisqu'on arrive à la fin, deux choses. Sur les composés chimiques, j'aimerais savoir si ce que tu dis est vrai. C'est-à-dire que quand les composés chimiques sont dangereux, on les interdit. Chapitre 4 LES MUTATIONS DU DROIT DE LA SANTÉ AU TRAVAIL ET LA NÉGOCIATION COLLECTIVE : L'EXEMPLE DE LA QUALITÉ DE VIE AU TRAVAIL
Franck HEAS, Professeur en droit à l'Université de Nantes Corinne GAUDART
Bonjour à toutes et tous. Nous accueillons ce matin Franck Héas, professeur de droit à l'Université de Nantes, qui va nous faire un exposé sur les mutations du droit de la santé au travail et de la négociation collective, à travers l'exemple de la qualité de vie au travail. Bonjour. Merci de nous avoir fait le plaisir d'être présent ce matin, et nous vous écoutons donc pour quarante-cinq minutes. Franck HEAS Merci. Bonjour à tous. Comme ça a été dit, je suis enseignant-chercheur en droit donc on va faire un petit peu de droit. Je sais que, tôt le matin ou en fin de matinée, ce n'est pas toujours les choses qu'on recherche mais bon voilà moi, je suis juriste, donc je ne peux faire que du droit – et vous proposer ce matin un éclairage, un regard croisé des évolutions du droit de la santé au travail couplées avec ces évolutions des mécanismes de négociation collective en prenant appui, comme le titre l'indique, sur une étude que nous sommes en train de mener avec certains collègues (j'en dirai quelques mots tout à l'heure) sur les accords d'entreprise conclus en matière de qualité de vie au travail (QVT). L'idée est de prendre prétexte, prendre exemple de ces négociations d'entreprise en matière de QVT pour voir ces mutations, qui ne sont pas nouvelles mais qui pénètrent le droit de la santé au travail.
I
.
Les mutations du droit de la santé travail et les évolutions en matière d'articulation des normes conventionnelles I.1. Les mutations du droit de la santé au travail
Quelques premières diapos avant d'entrer dans le détail, pour illustrer ces évolutions. Un tableau dans lequel j'ai tenté de répertorier, d'illustrer ces mutations, ces évolutions du droit de la santé au travail. Vous voyez trois étapes. Alors précision préalable, le 1 2 3 laisse supposer que ce sont des étapes, des temps qui se succèdent. Dans mon idée, ce n'est pas tout à fait ça : c'est plutôt la logique de couches, de strates et de finalités qui se superposent. Prévention 3. Santé Droit matériel et concret
Droit de l'anticipation des risques Droit de la protection de la santé de la personne Sécurité organisationnelle Sécurité préventive Sécurité personnelle Tableau : Evolutions du droit de la santé au travail
Première étape : sécurité. Vous voyez, j'ai essayé de représenter ça avec quelques mots-clés. Si on veut mettre aussi un élément de temps, de datation, je dirais que c'est le droit originaire de la santé au travail, ces réglementations techniques, organisationnelles de la santé au travail très pointilleuses, des réglementations très abondantes qui sont l'héritage des premières réglementations en la matière du XIXème siècle – avec cette idée donc que ce qu'on appelle aujourd'hui « la santé au travail », c'est d'abord à l'origine une question sécuritaire, et qui est appréhendée dans le cadre d'une réglementation très abondante, très pointilleuse, très réglementaire. Si on ouvre la partie réglementaire du Code du Travail, c'est là qu'on va trouver toutes ces dispositions. Donc là c'est un premier temps, avec un droit technique de l'organisation de la sécurité dans l'entreprise. Deuxième étape : prévention. Là vous avez peut-être déjà deviné. Si on veut une date-clé, alors bien évidemment les temps sont assez larges, mais c'est pour donner quelques indications : c'est la directive communautaire de 1989 qui impulse une logique de prévention. Et donc d'un droit de l'organisation de la sécurité dans l'entreprise, on passe, on évolue vers un droit de l'anticipation des risques dans l'entreprise. C'est cette logique de prévention des risques professionnels dans l'entreprise au bénéfice des salariés de l'entreprise. Et puis, il y aura une troisième étape : santé. Vous voyez mes mots-clés : sécurité, prévention, santé. Là également un élément de datation, mais ça reste à discuter et puis c'est surtout pour en donner un : je mettrais 2002, avec l'idée de reconnaissance et d'introduction dans le Code du Travail du concept de santé mentale. C'est l'idée, là, d'un élargissement du prisme. C'est-à-dire que la logique de ce droit de la santé au travail évolue. Vous avez compris les deux premiers temps. Et là on est dans une approche beaucoup plus élargie, beaucoup plus globale des problématiques de santé au travail. On parle encore de sécurité, mais aussi de santé au travail – donc un droit peut-être beaucoup plus global. C'est tout d'abord (et on y reviendra) cette approche beaucoup plus globale, systémique de la santé au travail, la reconnaissance de la personne du travailleur (on l'a dit), la multiplicité des acteurs également qui interviennent. J'y reviendrai, mais il y a aussi cette idée d'un droit originellement d'abord organisé par la loi, par le législateur. Et puis on va voir, interviennent aussi de plus en plus, notamment les interlocuteurs sociaux, et une montée en puissance de la négociation collective en la matière. C'est également la montée en puissance de l'impératif de prévention, qui est sous-jacent et qui est derrière toutes ces évolutions. Donc voilà un premier élément sur ces évolutions, sur ces mutations du droit de la santé au travail, dont les accords QVT, vous allez voir, sont une illustration.
I.2. Les évolutions en droit du travail en matière de négociation collective
Depuis 2017, outre ces évolutions qui sont celles du droit de la santé au travail, on a aussi des évolutions qui, depuis les ordonnances de septembre 2017, sont très importantes parce qu'elles viennent interférer dans l'articulation des sources de droit du travail, dans l'organisation et dans le dialogue de ces différentes sources. Et donc là, on a aussi des évolutions en droit du travail sur le terrain de la négociation collective notamment qui sont très, très importantes – et, vous allez voir, dont un des champs d'application est très précisément la santé au travail. Donc ici, on a une nouvelle logique qui se caractérise d'une part, par un recul de mon point de vue des problématiques de santé au travail au niveau des branches, et qui est corrélé un recul également de la loi au bénéfice des négociations d'entreprise. C'est ce qu'on va voir un peu plus tard. Donc vous le savez en matière de négociation collective, on en parlera tout à l'heure si besoin, il y a différents types de normes professionnelles, de sources conventionnelles qui interviennent selon les niveaux : entreprise, branche, national et interprofessionnel. Depuis 2017, c'est l'articulation de ces normes à différents niveaux qui est modifiée. La primauté de l'accord de branche sur l'accord d'entreprise pour 13 thèmes (article L 22531 C. trav.) Depuis septembre 2017, le législateur a listé treize champs, treize matières à propos desquelles la loi dit : sur ces matières-là, primauté à la négociation de branche. Quel que soit le contenu des négociations d'entreprise, c'est le primat qui est accordé aux dispositions de branche. C'est ce qu'on appelle « les matières du bloc 1 ». Alors si vous avez jeté déjà un coup d'oeil sur la liste, vous voyez que très peu sont en lien direct ou indirect avec des problématiques de santé au travail. On a quand même certaines problématiques que l'on peut rattacher à ce sujet général de santé au travail : la couverture complémentaire, les problématiques de durée du travail, puisqu'elles sont pensées en droit comme étant en lien avec des problématiques de santé bien évidemment, l'égalité professionnelle hommes/femmes (on va en reparler). C'est-à-dire que sur les treize sujets de cette liste-là, il y a peu de thématiques qui sont en lien direct ou indirect avec des problématiques de santé. Ce qui illustre, de mon point de vue, ce recul des problématiques de santé au niveau des négociations collectives de branche. On a une primauté toute relative, une impérativité relative très limitée dorénavant de l'accord de branche. Ce qui fait que l'on peut conclure à ce niveau-là un recul d'une certaine manière des problématiques de santé au travail. La primauté possible de l'accord de branche sur l'accord d'entreprise pour 4 thèmes (article L 2253-2 C. trav.) Ce recul des négociations de branche en matière de santé au travail se confirme par une autre disposition du Code du Travail : l'article L 2253-2 qui suit l'article L 2253-1, et qui fixe une autre liste de quatre thématiques à propos desquelles les négociateurs de branche peuvent décider de primer sur les négociations d'entreprise. Ce sont les matières de ce qu'on appelle le « bloc 2 », à propos desquelles, de du d'études de l'emploi et du travail, n° 109, juillet je le répète, les négociateurs peuvent décider de dire : sur ces quatre sujets, nous posons le postulat dans la branche, dans notre champ professionnel, que ce sont les négociations de branche qui vont primer. Il y a une quatrième matière qui touche un sujet de représentation du personnel. Donc là on a trois sujets sur quatre qui sont en lien plus direct avec des problématiques de santé. Donc ça relativise mon premier propos. Ça le confirme néanmoins parce qu'il ne faut pas perdre de vue que, si sur ces matières-là les négociateurs de branche ne décident pas de fermer, il y aura primauté à l'accord d'entreprise. Donc d'une certaine manière, le propos est quand même à relativiser. Il y a quelques branches, la branche du papier-carton par exemple, qui ont décidé de poser le primat de la branche sur ces matières-là par rapport aux négociations d'entreprise. Mais à défaut de clause de fermeture, on aura un primat qui sera celui des négociations d'entreprise. La primauté de
l'accord d'entreprise pour tous les autres thèmes
(article L 2253-3 C. trav.)
Le principe en la matière est posé à article L 2253-3 du Code du Travail. La numérotation du Code du Travail fixe donc le champ de la branche (article L 2253-1), les clauses possibles de fermeture (article L 2253-2) et la primauté de l'accord d'entreprise (article L 2253-3). Contrairement à ce que cette présentation numérotée des choses laisserait penser, le principe, il est là, en 2253-3. Le principe, il n'est pas dans la primauté possible de l'accord de branche, il est juridiquement dans la primauté de la négociation d'entreprise. Juridiquement, le principe est celui d'une priorité, d'un primat de la négociation d'entreprise, à défaut de situations particulières (donc les treize thématiques ou les thématiques des clauses de fermeture). Donc j'insiste bien là-dessus : juridiquement on a ce que j'ai indiqué tout à l'heure, un dessaisissement du niveau de la branche sur les problématiques de santé au travail. Dans cette logique générale, il y a aussi un dessaisissement de la loi au profit, au bénéfice de la négociation d'entreprise – puisque le principe est donc que c'est la négociation d'entreprise qui va primer sur les dispositions conventionnelles qui couvrent un champ d'application plus large. Donc c'est la fin du principe de faveur (alors j'aurais pu compléter ici parce que je m'aperçois que je n'ai pas été complètement précis) entre dispositions conventionnelles. Et puis, sur tous les champs autres que ceux précédemment listés, c'est l'impossibilité dorénavant de fixer des clauses de fermeture. . Je voulais débuter rapidement, mais je vois déjà que le temps passe, par cette présentation des mutations du droit de la santé au travail et des évolutions en matière d'articulation des normes conventionnelles.
II. Les négociations sur la qualité de vie au travail (QVT)
Dans le propos qui suit, pour entrer un peu plus dans le détail, je vais prendre appui donc sur les négociations QVT. On va voir comment la QVT est devenue un objet de négociation collective en droit. Je proposerai ensuite une catégorisation des accords d'entreprise que nous avons pu étudier. Et puis quelques éléments d'analyse, si j'ai le temps, qui donneront lieu à discussion par la suite. II.1. D'où nous vient cette notion de qualité de vie au
travail
en
tant qu'objet de négociation collective? Alors on pourrait trouver d'autres applications, mais la qualité de vie nous vient plutôt du vocabulaire environnementaliste. Et puis cette notion de QVT a pu être utilisée dans les années soixante-dix
, dans
des
études qui portaient sur l'organisation du travail, sur le jeu des acteurs. On a une utilisation un petit peu plus récente en France. Juridiquement, la première acception de la notion de QVT ressort, vous le savez, de l'accord national interprofessionnel sur la QVT précisément de 2013, qui définissait la QVT de façon très très large, très très extensive : « sentiment de bien-être au travail perçu collectivement et individuellement qui englobe l'ambiance, la culture de l'entreprise, l'intérêt du travail, les conditions du travail, le sentiment d'implication, le degré d'autonomie et de responsabilisation, l'égalité, un droit à l'erreur accordé à chacun, une reconnaissance, une valorisation du travail effectué ». Alors il n'y a pas que ça dans l'accord bien évidemment, mais c'est pour illustrer si vous voulez, cette approche assez large de la notion de qualité de vie au travail, qui rejoint cette tendance que j'ai pointée déjà tout à l'heure d'une approche assez large des problématiques de santé au travail, que l'on retrouve dans le Plan santé au travail etc. etc. Mais l'idée, c'est de faire de la QVT une notion transversale qui joue, qui intervient, qui a un impact sur des problématiques d'organisation du travail, sur les relations de l'entreprise avec l'extérieur, sur les relations interpersonnelles qui se nouent dans l'entreprise (que ça soit sur le plan individuel ou collectif). Ce qui fait que, dans cette définition-là, vous voyez, j'ai mis en perspective quelques motsclés par opposition. On a vraiment un certain nombre de dimensions diverses et variées qui jouent : le salarié par rapport à l'entreprise, les conditions d'emploi, la performance économique (important, elle est explicitement dans l'accord), l'individuel et le collectif, les problématiques santé/organisation du travail que l'on va retrouver ici. Donc vraiment une approche large. Alors ensuite, plus précisément, cet encadrement juridique de la QVT s'est précisé, s'est peaufiné au fur et à mesure et assez rapidement. Alors assez rapidement, mais on a quand même eu un encadrement, vous allez le voir, progressif de l'incitatif vers l'obligatoire. Donc à la suite de l'accord de 2013 que je viens de citer, l'idée était de rendre possible sur une période de trois ans la conclusion d'accords collectifs en la matière, ou de mettre en place un certain nombre de leviers pour que la QVT se décline dans les entreprises, et en faire un objet de dialogue social. Mais on est dans l'incitatif. C'est avec la loi du 5 mars 2014 que, de manière peut-être un petit peu plus précise mais là encore on était dans l'incitatif, a été ouverte la possibilité jusqu'à fin 2015 (je crois, de mémoire) de conclure des accords collectifs sous un angle d'attaque que l'on retrouve aujourd hui dans la loi qui était le regroupement des obligations de négocier en entreprise. C'est-à-dire que sous l'angle accord QVT, on regroupe les obligations de négocier. Et c'est précisément ce que l'on a dorénavant dans le Code du Travail, suite à la loi du 17 août 2015 qui a regroupé les obligations de négocier en entreprise sous trois thèmes, dont un des trois thèmes est précisément l'égalité professionnelle et la qualité de vie au travail. Et sous cet onglet, si je puis l' dire, sont listées un certain nombre de problématiques sur l'articulation vie professionnelle/vie personnelle, l'égalité professionnelle, la non-discrimination, la prévoyance, l'expression directe. Et puis, la loi Travail de 2016 a rajouté également le droit à la déconnexion, et puis les problématiques de pénibilité. Donc là dorénavant juridiquement dans le Code du Travail, la QVT, c'est une obligation de négocier. C'est un mécanisme qui s'insère, qui prend place dans les obligations de négocier, de regrouper un certain nombre de sujets de négociations dans l'entreprise. Alors c'est une négociation qui à défaut est annuelle, mais le champ de la négociation collective permet en la matière d'organiser la chose dans des accords qui peuvent couvrir des périodes de quatre ans. Donc d'un strict point de vue juridique, la QVT trouve sa place dans le Code du Travail en matière de droit du travail sur le terrain de la négociation obligatoire.
II.2. Une catégorisation des accords d'entreprise conclus en matière de QVT Premiers résultats de la recherche dans le cadre du projet MaRiSa
Dans ce cadre-là, je vais vous présenter quelques premiers résultats d'une recherche que nous menons dans le cadre d'un projet ANR, un projet qui s'appelle MaRiSa (Marché du Risque Santé). C'est un projet qui a pour angle d'attaque général des problématiques de protection sociale, puisque l'objectif est d'étudier les évolutions en matière de couverture du risque santé – et notamment sous un des angles d'attaque qui est celui du jeu des acteurs (les entreprises, les organismes complémentaires, les organismes de sécurité sociale et puis les partenaires sociaux) parce là aussi, en matière de couverture complémentaire, il y a de la négociation collective. L'idée, c'est de voir comment ces négociations collectives participent aux évolutions du marché du risque santé. Et c'est donc dans ce cadre-là que vient prendre place une étude sur les accords d'entreprise en matière de QVT, parce l'idée c'est d'arriver (enfin ce sont les premières conclusions dans le cadre de ce projet auxquelles nous arrivons) à un croisement avec cette idée que la négociation collective en matière de protection sociale rejoint des problématiques d'organisation du travail, et que les négociations sur le travail d'entreprise rejoignent aussi les problématiques de santé. Alors c'est dans ce cadre-là que, nous avons étudié un certain nombre d'accords d'entreprise en matière de QVT. C'est assez simple pour nous juristes dorénavant, puisque les accords d'entreprise doivent tous être inscrits dans la base qui est sur LEGIFRANCE, qui permet de répertorier, et donc de suivre ces négociations.
| 2,240
|
56c815458bd2b80858c827bc2038391b_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 1,993
|
Automates et fractions continues
|
None
|
French
|
Spoken
| 4,596
| 9,053
|
J OURNAL DE T HÉORIE DES N OMBRES DE B ORDEAUX
D OMINIQUE BARBOLOSI
Automates et fractions continues
Journal de Théorie des Nombres de Bordeaux, tome 5, no 1 (1993), p. 1-22
<http://www.numdam.org/item?id=JTNB_1993__5_1_1_0>
© Université Bordeaux 1, 1993, tous droits réservés.
L’accès aux archives de la revue « Journal de Théorie des Nombres
de Bordeaux » (http://jtnb.cedram.org/) implique l’accord avec les conditions générales d’utilisation (http://www.numdam.org/conditions). Toute utilisation commerciale ou impression systématique est constitutive d’une
infraction pénale. Toute copie ou impression de ce fichier doit contenir la présente mention de copyright.
Article numérisé dans le cadre du programme
Numérisation de documents anciens mathématiques
http://www.numdam.org/
1
Automates et fractions continues
par DOMINIQUE BARBOLOSI
’
I. Introduction
Soit n
[0,1] et soient les intervalles 4 (k) = ] 1/2k, 1/2k - 1] pour k
1,2,3, ... et I-(k) = ~l/2k - 1, 1/2k - 2] pour k 2, 3, 4, ~ ~ ~, on pose :
=
=
=
Soit W la transformation de SZ dans n définie par :
et soient b, s les applications définies sur n par :
(on convient. de poser b(0)
=
oo
et
-(0)
=
1).
Pour tout ~ élément de S2 on a alors,
et en posant pour simplifier
~(W’"’(~)~
=
et
b(Wm(e»
=
obtient :
Manuscrit reçu le 13 septembre 1991, versi6n définitive le 13 mai 1992.
Les résultats contenus dans cet article ont été exposés au colloque "Thémate",
(CIRM, Luminy, Mai 1991).
on
2
pour tout i élément de {1,2,’" n), bj e 2N + 1, sj E {-1,+1} et
bi + si > 2.
avec
Dans le cas où g est irrationnel ce W-développement est unique, on
l’appelle développement de ~ en fraction continue à quotients partiels impairs (en abrégé f.c.i). Ce développement en f.c.i a été étudié par G. J.
Rieger dans [5], [6], [7] et par F. Schweiger dans [8], [9], [10].
t-
=
et on notera FCI(~)
On posera
1/bl + El /b2 + ° ° +
la suite des convergents de g,
le
pour
développement en f.c.i. On a
alors la relation matricielle, (cf. [10]),
( £-t )n,
De même les développements en fraction continue régulière et à l’entier
le plus proche seront notés en abrégé respectivement f.c.r. et f.c.e.p., et
les suites respectives des convergents de e pour ces deux développements
(p.1q.). et (En/ Fn)n seront notées FCR(ç) et FCEP(ç). T désignera l’opérateur de Q dans S2 défini par T(0) = 0 et T(x) = x-l - (x-1~ si x =1 0,
le T-développement associé à un irrationnel e de S2 est naturellement le
développement en f.c.r. de ~.
Notons que le développement de e en f.c.i. peut encore s’écrire sous une
deuxième forme :
avec ci =
=
~1 ~2 ... sji et
1.
Ainsi, suivant que l’on considère son développement en f.c.r. ou en f.c.i.
(deuxième forme), ~ peut être représenté soit comme un mot infini sur
l’alphabet ,Ao N*, soit comme un mot infini sur l’alphabet Ai 2Z + 1.
=
=
Dans cet article nous utilisons cette deuxième forme pour associer au développement de ~ une factorisation unique (cf. théorème 5) de la matrice des
convergents
1
1
On en déduit un algorithme automatique pour décrire exactement l’ensemble FCI(~) par simple lecture du développement en f.c.r. de ~ (cf. théorème
5). La méthode utilise un morphisme de monoïde libre de l’alphabet A = Z
dans le groupe GL2 (Z). Une étude plus précise de FCEP(~) est également
3
donnée (cf. théorème 6). Dans un cas comme dans l’autre on montre que
l’ensemble des convergents q= qui n’apparaissent pas dans FCI(), (respecqn
tivement FCEP(», est reconnaissable par un automate. On en déduit par
cette méthode que.
Cette inclusion, associé à un résultat de H. Jager et de C. Kraaikamp [3]
redonne simplement le résultat de F. Schweiger [10] : pour tout ~ E n B Q,
on a pour une infinité
de n,
Ce travail constitue une partie de ma thèse [1] dont le sujet m’a été proposé par P. Liardet que je tiens à remercier pour l’aide constante qu’il m’a
apportée.
II. Passage du développement en f.c.r. au développement en f.c.i.
Commençons par établir quelques formules utiles :
LEMME 1.
Soit e := [0; a1, a2, a3, - - -~ le développement en f.c.r. de e G
n B Q. Alors :
(ii) si al
=
1, on a
4
(ii’) si al > 1, on a
Démonstration. Toutes ces égalités s’obtiennent par calcul direct; notons
cependant qu’elles se déduisent aussi des relations matricielles suivantes
plus générales, avec des nombres réels a, b, c et - quelconques :
Soit k. le plus petit entier tel que le quotient ak du développement de e
donné au lemme 1 soit pair, (on écarte le cas où tous les quotients
-~ El /b2 +...+ £m-1/bm
partiels sont impairs).
le développement de e en f.c.i. Alors
Tmç, £m 1 et bm = am
en f.c.r.
=
pourm=1,~~~,k-1.
Si
=
1, le lemme donne
et suivant la parité de ak+2 :
=
5
Si ak+1 > 1, on a encore
puis
et suivant la parité de ak+2 :
ou
Nous pouvons continuer cette transformation du développement en f.c.r.
de e en le développement en f.c.i., plus précisement, on a :
THÉORÈME 1. Soit e := [0; ~1,~2~3?’"]] le développement en f.c.r. de
le W~ E n B Q, soit e
1 /bi + £1/b2 ~- ~ ~ ~ + Ek-llbk +
définie
l’ordre
à
k
et
soit
N‘
I~Y
-~
développement de e
l’application
p :
=
par
6
Alors, pour chaque k, I’une des trois possibilités suivantes est satisfaite :
D’autre part, lorsque Ek
-1, on a
et dans ces conditions : Wk+1ç
=
=
Démonstration.
v =
Posons u
=
=
1 si et seulement si
ap(k)+l > 1
TP~k~~/(1 - TP(k)ç).
=
1/bk+1 -~
Tk~~. Supposons que k’ p(k) et que l’une des conditions (i), (ii), (iii)
=
soit satisfaite.
Dans le cas u = v, (£k = 1), selon la parité de
le lemme 1 donne :
ou
Dans le cas où u = ~/(1 - v), (Ek = 1), comme on a 0
2, d’où
u
nécessairement
1, alors
et selon la parité de
ou
Soit maintenant le cas où u = 1 - v, (ck == -1). Si akl+l
parité de ak’+2, le lemme 1 (ii) donne :
=
1, suivant la
7
En particulier, on a toujours ~~~, b~+1 ) ~ ( -1, 1). Si l’on suppose main> 1, la partie (ii’) du lemme 1 donne :
tenant
( -1,1 ) et l’on est ramené au cas précédent.
L’une des trois propriétés (i), (ii), (iii) est donc vérifiée pour k + 1. Pour
1~
0, la propriété (i) est évidente avec p(O) = 0, d’où le théorème par
D
récurrence
avec notamment
=
Lagrange a montré [4] que tout nombre quadratique e a un développene prend qu’un
ment en f.c.r. ultimement périodique. Dans ce cas,
nombre fini de valeurs et l’une des trois possibilités du. théorème 1 a lieu
périodiquement, pour k assez grand, selon un multiple de la longueur de
période du développement de e. Il en résulte donc le
COROLLAIRE 1. Pour que e soit un nombre quadratique, il faut et il suffit
que son W-développement soit ultimement périodique.
Le théorème 1 peut s’expliquer en termes d’homographies. En effet, il
montre que le W-développement de e à l’ordre l~ ne dépend que de son
T-développement à l’ordre p(l~), de sorte que l’on obtient :
COROLLAIRE 2. Pour tout
0 et tout t e [0, 1], avec les notations
et définitions d u théorème 1, on a :
où hk(.) est l’homographie définie à partir de la fonction p(.) par :
(c)
:= t
- 1
dans les autres cas, en notant que :
du déveOn peut maintenant comparer facilement les convergents
et
les
loppement en f.c.r. de e
convergents An/ Bn du développement en
f.c.i. :
8
THÉORÈME 2. Avec les notations précédentes, on a :
(et ce dernier cas correspond aux indices k tels que (ek, bk+1) _ (-1,1)).
Démonstration. Lorsque Ek = 1, on est dans les cas (a) ou (b) du corollaire 2. Le cas (a) donne la première égalité du théorème 2 en t = 0.
D’après la définition de p(.), le cas (b) équivaut à
(-l, 1), or
et en prenant t = 0, on trouve encore Ak/Bk =
en
prenant t
ce
qui donne
=
Dans le cas (c),
1, on obtient
Lorsque p(k + 1) = p(k) + 2, alors
=
1, de sorte que :
et dans ce cas, on n’a pas un médian mais un convergent. Lorsque
cette fois-ci on a
0
> 1, et l’on a bien un médian.
p(k + 1) =
p(k),
III. Fractions continues et monoïdes
1. Monoïdes libres
Soit .,4 un ensemble et soit 4* le monoïde libre engendré par ,~4. Les
éléments de ,~4* seront vus comme des mots sur l’alphabet ,~. Si a
=
9
est un tel mot, formé par juxtaposition de lettres ai de .~4, on
= m. Le mot vide est noté
dit que a est de longueur m et on écrit
~1~2 ’ ’
lai
A, il correspond à l’élément neutre de .~l* et sa longueur est 0. La loi
du monoïde ,A* correspond à la concaténation (a, (3) -7 af3 des mots; si
a
Dans la
a1 a2 ... am et f3
g1 g2 ... bn alors
a1 a2 ...
suite on choisit pour ,A l’ensemble des entiers relatifs Z et on introduit sur
,~* l’automorphisme de conjugaison a - à obtenu en remplaçant chaque
lettre par son opposée au sens de la structure de groupe habituelle de Z. On
s’intéressera aux sous-alphabets
N* et Ai
27~ -E-1. A tout irrationnel
e de [0, 1] son développement en f.c.r. £ = ~0; a1, a2 ~ ~ ~ ~1 fournit une suite
dans (,Ao ) * , et de même, le développement
de
en f.c.i. de ~
1 /b1 + El /b2 -~- ~ ~ ~ écrit sous la deuxième forme à savoir
=
=
=
=
=
fournit une autre suite de mots c’ :=
ces mots
~1~
dans Ai. Notons que
sont soumis aux inégalités
+
2, pour tout entier n > 1,
où
dans Z et
:= xllxl sur R*.
désigne le produit de cn par
Notre objectif est de considérer les produits matriciels étudiés au chapitre
II comme les images d’un même homomorphisme de monoïde.
Soit K le sous-groupe de GL2(Z) engendré par les matrices
Classiquement, le groupe SL2(Z) est engendré par L et SJ de sorte que K
GL2(Z) puisque GL2(Z) = (SL2(Z» U S.(SL2(Z». Notons les relations
élémentaires suivantes, (en désignant par I la matrice identité) :
=
En particulier Ko =
forment des
et
commutatifs
Nous
définissons
sous-groupes
isomorphes.
également une
au
de
intérieur
sur
moyen
conjugaison
l’automorphisme
g - y
GL2(Z)
10
déterminé par S, i. e. g := SgS-1 (= SgS). Le groupe des points fixes de
cette conjugaison est précisément le sous-groupe
Pour tout a 6 7G, (et même ~C), on a La =
les relations :
C 0 1 J ’ ,Ra = (a 1)
et
LEMME 2. Le rnonoïde engendré par les matrices R et L est libre.
Démonstration. Soit A = A’ une relation entre des produits de puissances strictement positives de R et L. Quitte à multiplier à gauche par R
et à droite par L, on peut supposer que cette relation est de la forme :
pairs, et les entiers
strictement positifs. On doit montrer
et a1 a2 ~ ~ - a~ . Mais en termes d’homogral’égalité des mots
phies, l’égalité A = A’ se traduit par
avec m et n
pour tout tER. L’unicité du développement en fraction continue régulière
des irrationnels entraîne ~1~2 ’ ’ am = a1 a2 ~ ~ ~ a~.
On définit maintenant l’application m : .,4* -~ GL2(Z) par
En remarquant que
on en déduit
=
l’égalité :
I,
11
THÉORÈME 3. L’application m : ,A* -~
définie en (3) est un mortous
a
de
monoides
:
et (3 dans A * on a
pour
phisme injectif
De
plus
m(a)m((3).
Démonstration. Soient a et (3 des mots de ,A*. La formule (4) donne
=
D’autre part, la relation sur les conimmédiatement
jugaisons résulte directement des définitions, de la relation SJS = -J et
des égalités (2).
Démontrons maintenant l’injectivité de m(~). Si m(a)
m(,~3), on a aussi
et
et
sont
de
même
comme laal
parité, on en déduit
1001
m(aa) _
l’égalité aa = (3(3 d’après le lemme 2. Il
=
2.
Algorithmes de factorisation
Commençons par donner quelques formules.
LEMME 3. Soit a une lettre de l’alphabet A (= Z) et soient u, v des entiers
relatifs. Alors on a :
Démonstration.
dants.
0
Il suffit d’effectuer les produits matriciels correspon-
LEMME 4. Soit 1 un mot (éventuellement vide) sur l’alphabet ,A (= Z) et
soient a, 6~ c des lettres de A. Alors, on a :
Démonstration. Il suffit d’appliquer le lemme précédent en tenant compte
des propriétés d’homomorphisme de m(.).
0
12
N~ * de
un mot sur l’alphabet .Ao
Alors il existe une factorisation unique de noe(a) sous la forme :
THÉORÈME 4. Soit cx
longueur
n.
=
=
où les ~3i sont des mots sur l’alphabet
,A1 = 2N + 1, la dernière lettre dj de
> 2, A E
2 pour 1 j
et p un mot sur l’alphabet Ao de longueur au plus 2, avec l’une des trois
f3j
possibilités suivantes :
Démonstration.
(A1+)*
avec a = {3, p = A et
alors m(a) =
Ezistence. Si cx E
A = I. Dans le cas contraire, écrivons a sous la forme a’aa" avec a pair,
alors, d’après le lemme 4,
avec 1 sur l’alphabet ,Ao de longueur strictement inférieure à celle de a. On
est donc ramené par induction finie à examiner les cas où a est de l’une
avec a, b, c entiers > 1, d’où les différentes formes
des formes
données en (Ci ) , (C2), (C3 ), par application du lemme 4 et de la propriété
de morphisme de m(.). Les inégalités sur les di résultent directement de
l’application des égalités du lemme 3.
Unicité. Remarquons que si -y
=
ci ’ ’ ’ Cj est un mot sur ,~, on a :
Il en résulte que dans le cas (Ci), on a une égalité matricielle du type
où 1£ j 1 = 1 et les b~ sont des entiers impairs positifs pour 1
que bj ~- e~ > 2 pour 1 ::; j ::; m -1, et m ==
pour t e [0,1], on a
j m, tels
En particulier,
13
le dernier membre de ces égalités étant le W-développement de et à l’ordre
m. En choisissant t irrationnel, ce développement est unique, d’où l’unicité
de la factorisation (5), la dernière lettre de chacun des mots f3i, 1 i m-1
étant déterminée par les indices j tels que s j-1 = -1.
(C2) et "( C 3), prolongeons le mot a en ac, de sorte que
devienne
respectivement m(f3k)ô.m(a + 1)Sm(l(c - 1)) ou
m(f3k)Ô.m(p)
m(f3k)Ô.m(a’ + 1)Sm(c + 1). Prenons c pair, on est alors ramené au cas
les bj étant des entiers impairs positifs,
(Ci), et si /~l,C~z ~ ~ f3k bl ~ ~ ~
Dans les
cas
=
en
posant sm
=
dét(A), on a :
dans le cas (C2 ) et
---
-
dans le cas C3. L’unicité du W-développement détermine entièrement la
suite
ainsi que A et p, d’où l’unicité de la factorisation dans tous
les cas.
0
DÉFINITION . Soit 1 un nombre irrationnel dans SZ de développement en
fraction continue à quotients partiels impairs _l /b1 -~-~ ~ ~ ~ . La
factorisation unique (~) permet de définir
N* ~ N* par :
=
Dans le cas (Ci) du théorème 4 on a t =
Le cas (C2)
donne W"~’~~~ = 1 et
puis
Tne) le cas (C3)
=
=
donne
1 + T~’~). Au vu du théorème 2 le
cas (C2 ) correspond à l’apparition des médians lorsque
> 1, avec
=
On peut améliorer cela :
THÉORÈME 5. Soit e = [0; ai, a2,... , , an, · · ·~] un nombre irrationnel dans
n donné par son développement en f.c.r. de convergents
soit
14
développement en f.c.i. de convergents (Am/Bm), et soit w(~) la suite
définie ci-dessus. Pour tout n on note (C) - (C’)
(C") lorsque le cas
son
-
(C) est vérifié pour n, le cas (C’) est vérifié pour n + 1 et le cas (C") est
vérifié pour n + 2. Alors, avec les notations du théorème 4, on a :
Démonstration. Posons pour simplifier
et w(n) = m. Dans le cas (Ci), d’après le théorème 4 on a E,, =
Dans
le cas (C2), supposons an+1 > 1. Alors, avec les notations du théorème 4
et le lemme 3, on a en posant
:= m((31)S ... Sm((3k) :
15
Le lemme 3 (f2) donne alors
c’est-à-dire :
par suite :1
Supposons an+1
=
1; cette fois-ci, on a m(a1 ...anl)
Le
=
lemme 3 (f3) donne donc
d’où encore l’égalité (7). On remarquera que dans ce cas Pn+l pn-i
et
qn-1 + qn . Dans le cas (C3 ~, on a an - 1, et pour c =
=
c’est-à-dire
Le passage à n + 1 donne
+ 1) = w(n) avec le cas (Cl) si c est pair et
le cas (C2 ) sinon. Pour obtenir les divers cas du théorème il sufiit de suivre
0
les cas précédents en passant de n à n + 1 puis à n + 2.
COROLLAIRE 3. Lorsqu’un médian (pin +
+ qn+l) appartient à
alors
les
et
sont
aussi dans FCI(e).
convergents pn/qn pn+1/qn+1
FCI(e),
COROLLAIRE 4. Le convergent
n’apparaît pas dans FCI(E) si et seulement si pour m = w(n) on a, dans le W-développement de ç, em, _ -1 et
3.
En effet, la disparition d’un convergent correspond au cas (C2~ - (C3)
= 1.
dans le théorème, avec (C2) vérifié pour n et
16
3. Fraction continue à l’entier le plus proche (f.c.e.p.)
Soit ~ un irrationnel dans 52. Envisageons son développement à l’entier
le plus proche (f.c.e.p.) introduit par A. Hurwitz [2], à savoir
la suite des couples (ei, hi~, i > 0, étant déterminée de manière unique par
les conditions :
On a par ailleurs ho
eo = +1 si 1/2
~
=
1 et eo = -1 si 0 ~
1/2 tandis que ho = 0 et
1. Rappelons que FCEP(~) désigne l’ensemble des
convergents
Les entiers En = En(~), Fn = F,,(~) sont donnés par le produit matriciel :
Nous poserons dans la suite :
A. Hurwitz a démontré que FCEP(~) C FCR(e). Nous redonnons ce
résultat sous une forme plus précise :
THÉORÈME 6. Soit e un irrationnel dans n de développement en f.c.e.p.
(8~. Associons à e la suite v : N‘ -> N‘ définie par
17
Démonstration. A la suite
f.c.e.p. de ~, associons la suite
déterminée par le développement en
définie par
D’après (6) on peut écrire :
et par les formules du lemme 5, on obtient simplement,
1.
2 et hi -E- e2 > 2, donc hi - Ci-l Pour tout i > 1 on a
Introduisons le mot hi, d’une ou deux lettres sur l’alphabet ,Ao, défini par
si e, = -1 et hi := (hi - ci-l) si ei = +1. D’après
hi :== (hi le lemme 3, on a la relation :
Le théorème 3 montre que le mot hi est uniquement déterminé par cette
=
relation. Par définition on a
1 + Ei, et par suite, en remarquant que
A = 1~ lorsque a == 0,
Par construction on a :
Regardons maintenant les matrices comme des homographies (sans changer
les notations), alors si
avec 0
par définition du développement en
1/2. Posons :
-
___
___
77n
18
Si en
1, alors En
=
==
0 et
L’unicité du développement en f.c.r. implique donc fin
J
=
e,(,) (=
...
mais l’image de ~0,1/2~ dans l’homographie t -> t/1 - t est égale à ~0,1~
avec
de sorte que maintenant on a ~v~n~ - ~/(1 "
a~,~ n~ - 1. D’où
=
1
£~~n>_i . Dans tous les cas
£v~n>-1 = 1 / ( 1 + ~~,t n~ ) et par suite
et par suite
On a donc 5n =
on a
=
si en = -f-1. Dans le cas où en = -1, par définition de
=
1 et v(n) = v(n - 1) + 2, d’où Pv(n) =
+:
ce
qui donne dans tous les cas :
IV. Automates de factorisation et convergents
Un g-automate (fini, déterministe) est un quadruplet (S, 9,~, So) où S est
ensemble fini (l’espace des états), 9 est un alphabet fini à g éléments
auquel est associé un ensemble d’iqstructions 4l formé d’applications 4lx :
S -- S définies pour toute lettre x de l’alphabet 9, et où So est un élément
particulier de S appelé état initial. Un tel automate est essentiellement
donné par un graphe orienté sur S dont les arcs sont indexés par 9 et
correspondent aux instructions de l’automate. Nous allons associer un automate au développement en f.c.i. et faire de même pour le développement
en f.c.e.p. Ce qui nous intéresse est de déterminer de manière automatique
la disparition des convergents du développement en f.c.r. de e dans FCI(E)
et dans FCEP(e).
un
19
Introduisons l’alphabet Ç =
image de ,Ao par le morphisme
=
et
défini
1, f (2n~
p
f
par
f (2n - 1) = i, n e N*. Soit
=
S
l’espace des états défini par les trois cas du théorème
associées aux lettres
4. Prenons Ci comme état initial. Les instructions
x de B sont données par le graphe orienté suivant :
1.
=
Ce 3-automate (s, 9, ~,
permet de reconnaître les divers cas du théorème par simple lecture des mots f (a1 ) ~ ~ ~ J(an). Plus précisement, si pour
au mot a = a1... an (n > 1) nous
simplifier on note 4l,; au lieu
associons l’application
D’après le théorème 4, la factorisation (5) de m(a) est de la forme (Ci) si
et seulement si
(Ci). La lecture de cet automate donne aussi un
le
de
déterminer
moyen
développement en f.c.i. à partir du développement
en f.c.r. Retenons la caractérisation suivante qui résulte du théorème 5 et
complète son corollaire 4 :
THÉORÈME 7. Avec les notations précédentes, les convergents
paraissent pas dans FCI(E) si et seulement si
2.
Soit
sur son
n’ap-
(C3).
[0;c~’’’,c~’-’]] le développement en f.c.r. de e et revenons
développement en f.c.e.p. (8). On passe du premier au second
"singularisant" de gauche à droite les "1" dans la suite des
précisément à l’étape initiale on a
en
puis on applique la formule classique de "singularisation" (cf. [1]) :
Plus
20
en
En termes de produit matriciel, cela revient à factoriser
utilisant les formules suivantes (données pour a et c dans ,A) et la propriété
de morphisme de m(~~ :
m(lc) LSm(c + 1),
m(alc) m(a +
=
1),
=
et plus généralement, par récurrence sur r > 1 :
m(a + 1)(Srn(3)) r21 Srra(c + 1) si r est impair,
si r est pair.
m(a +
Introduisons la factorisation de a := 0~1 ’ ’ an dans ~4~ mettant en évidence
m(alTc)
=
=
les "1" sous la forme :
où les ai sont des mots non vides dont les lettres sont des entiers > 2 avec
ro > 0, rk > 0, rj > 0 pour 0 j k. Distinguons maintenant deux cas :
(0) : l’entier r~ est pair,
(I) : l’entier rk est impair.
Lorsqu’on passe de a à aan+,, alors on passe de (0) à (I) seulement si
1, on passe de (0) à (0) seulement si an+1 > 1 et on passe de (I)
an+1
à (0) quelle que soit la valeur de an+l. Soit (~,,t3, ~Y, (O)) le 2-automate
déterminé par £ _ {(O), (I)}, Ci
les instructions déterminées
le
orienté
suivant
:
par
graphe
=
=
Remarquons que pour passer du développement en f.c.r. à celui en
f.c.e.p., la singularisation de "1" ne se fait que lorsqu’on passe de (0) à
:= a si
(I). Soit g : Ai - ~3* le morphisme de monoïde défini par
x
est un entier > 2 et
:=
1. Le 2-automate (£,8, T, (0» permet de
21
reconnaître la "singularisation" des "1" (et donc la disparition des convergents du développement en f.c.r. dans FCEP(ç)) par simple lecture des
mots
Plus précisément, posons pour simplifier
au lieu
>
nous
de
Au mot a = a1 ~ ~ ~
associons
l’application
(n 1),
On a donc démontré le résultat suivant :
THÉORÈME 8. Avec les notations précédentes, les convergents pn /qn n’apparaissent pas dans FCEP(~) si et seulement si
(I).
Nous sommes maintenant en mesure de comparer très simplement les
convergents pour le développement en f.c.e.p. et ceux obtenus par le
développement en f.c.i. :
THÉORÈME 9. Pour tout nombre irrationnel e dans SZ on a :
Démonstration.
Utilisons les deux automates précédents. Soit a =
D’après le théorème 7 le convergent régulier
n’appartient
= 1. Si
et
on
1
a
>
an
pas à FCI(~) lorsque
(Cz) an+l
n’appartient pas à FCEP(E) d’après
(0) et l’état suivant est (I), donc
le théorème 8. Si an = 1, on a a =
avec r > 1, f3 =
et an-r > 1. Comme
(Cz), le 3-automate (S, Ç, 4l, So) donné
ci-dessus montre que 4l,(Ci) = (C2) et que r est pair. Mais on a aussi
(0) et par suite
(0) et
(I), donc là encore
à
0
n’appartient pas FCEP(e).
Comme application de ce résultat, nous retrouvons un résultat de F.
Schweiger [10] :
COROLLAIRE 5. Pour tout irrationnel e de SZ on a :
pour une infinité d’entiers n.
En effet, cette propriété a été démontrée pour les convergents dans
FCEP(E) par J. Jager et C. Kraaikamp [3], d’où le résultat pour les convergents dans FCI(~).
22
BIBLIOGRAPHIE
[1]
D. BARBOLOSI, Fractions continues à quotients partiels impairs, propriétés arithmétiques et ergodiques, Thèse, Université de Provence, (janvier 1988).
[2]
A.
[3]
C. KRAAIKAMP, Metric and Arithmetic Results for Continued Fraction Expan-
HURWITZ, Über eine besondere Art der Kettenbruchentwicklung reeller
Grössen, Acta Math. 12 (1889), 367-405.
sions, Thèse, Université d’Amsterdam, (avril 1990), (page 157).
[4]
J.-L. LAGRANGE, Addition au mémoire sur la résolution des équations numériques, Mem. Ber. (= Oeuvres, II) 24 (1970).
[5]
G. J. RIEGER, Über die Länge von Kettenbrüche mit ungeraden Teilnennern, Abh.
Braunschweig. Wiss. Ges. 32 (1981), 61-69.
[6]
G. J. RIEGER, Ein Heilbronn-Satz für Kettenbrüchen mit ungeraden Teilnennern,
Math. Nachr. 101 (1981), 295-307.
[7]
G. J. RIEGER, On the metrical theory of continued fraction with odd partial quotients. Topics in classical number theory, I, II, (Budapest 1981), Colloq. Math. Soc.
Janos Bolyai, (North Holland) 34 (1984), 1371-1418.
[8]
F. SCHWEIGER, Continued fractions with odd and even partial quotients, Arbeitsbericht Math. Instit. der Un. Salzburg 4 (1982), 59-70.
F. SCHWEIGER, A theorem of Kuzmin-Levy type for continued fractions with odd
partial quotients, Arbeitsbericht Math. Instit. der Un. Salzburg 4 (1982), 45-50.
[10] F. SCHWEIGER, On the approximation by continued fractions with odd and even
partial quotients, Mathematisches Institut Salzburg, Arbeitsbericht 1-2 (1984), 105-
[9]
114.
[11] O. PERRON, Die Lehre von den Kettenbrüchen, Chelsea Publ. Comp., New-York,
1929.
Dominique Barbolosi
Facultés des Sciences et Technique de Saint-Jérôme
Université AIX-MARSEILLE III,
Service de Mathématiques
Case 322, Avenue Escadrille Normandie Niemen
13397 Marseille Cedex 04.
| 52,975
|
57/hal.univ-lorraine.fr-hal-01732968-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,350
| 12,581
|
Les paramètres aériens et nasaux [176] [177] influençant la transduction : Lors d'une inspiration normale, le flux aérien est évalué à 100 ml/s, avec une vitesse de 1 mis. À la fois laminaire et turbulent, ce flux balaie la fossette olfactive en décrivant un trajet semi-circulaire dans les fosses nasales. Le flairage permet d'accroître la vitesse du courant aérien et de dévier sa trajectoire vers le plafond des fosses nasales, ce L'olfaction 66 qui augmente considérablement le débit aérien dans la fente olfactive. Le courant est alors turbulent. Les résistances à l'écoulement de l'air varient en fonction du cycle nasal. Il semble cependant que les variations physiologiques de celui-ci n'altèrent pas la perception olfactive sauf lorsqu'une anomalie anatomique vient retentir sur le flux aérien. En effet, une augmentation marquée des résistances nasales altère l'intensité de la sensation. Ainsi, YOUNGENTOB et coll. [279] ont expérimentalement fait varier chez l'homme la résistance nasale tout en maintenant constante la concentration de molécules parvenant à la fente olfactive. La gêne au flux aérien qui imposait un effort accru de reniflage s'accompagnait d'une baisse de la sensation odorante. Une telle constatation pourrait rendre compte des hyposmies observées dans les grosses déviations septales ou les concha bullosa. A cet égard, il faut souligner le rôle du cornet nasal moyen qui, du fait de ses propriétés érectiles, pourrait jouer le rôle de «pupille olfactive» [88]. Le rôle de la valve narinaire doit également être souligné. Le rétrécissement qu'elle constitue provoque un brutal changement rhéologique avec baisse de la vitesse du flux favorisant le contact entre muque et molécule odorante. Les molécules odorantes peuvent parvenir à la fossette olfactive par voie postérieure rétro-nasale lors de la déglutition. Cette voie permet d'associer le goût et l'odeur des aliments, c'est ce que l'on appelle la flaveur. Enfm, les molécules odorantes doivent être en concentration suffisante dans l'air. La concentration maximale d'un corps en phase gazeuse est sa pression de vapeur saturante, laquelle est proportionnelle à la température et inversement proportionnelle au poids moléculaire. Ceci explique que peu de corps odorants ont un poids moléculaire supérieur à 300. L'efficacité de l'aéroportage est encore influencée par la partie inférieure, respiratoire, des cavités nasales. En effet, l'humidification et le réchauffement de l'air assuré par la muqueuse majorent l'intensité des arômes, sans doute par augmentation discrète des résistances et de la durée de contact utile entre muqueuse olfactive et odorant. Ceci est particulièrement net pour la voie postérieure. L'olfaction Cette interaction entre les deux étages des cavités nasales, le supérieur dévolu à l'olfaction et l'inférieur dévolu aux tâches respiratoires, réalise une véritable dissociation anatomique et fonctionnelle qui rend compte de la symptomatologie parfois paradoxale de l'anosmie.
II - LES ÉVÈNEMENTS PÉRI-RÉCEPTEURS ET LE RÔLE DU MUCUS
Immédiatement avant l'interaction des molécules odorantes avec les récepteurs olfactifs se déroulent dans le mucus qui baigne les cils des NOP un certain nombre de phénomènes essentiels pour la reconnaissance des odeurs, que l'on désigne sous le terme « d'événements péri-récepteurs » [78] [195]. Il s'agit de la dissolution des molécules odorantes dans le mucus, de leur diffusion vers les cellules réceptrices, et de processus enzymatiques susceptibles de modifier qualitativement ou quantitativement le stimulus. Ces événements sont conditionnés par le maintien de l'homéostasie du mucus dont le rôle est essentiel et multiple. Les deux premières fonctions du mucus sont de protéger les délicates structures sensorielles olfactives notamment du dessèchement auquel l'expose le flux aérien, et de maintenir un environnement fluide de composition constante autour des récepteurs membranaires. Les processus de transduction nécessitent, en effet, le maintien d'une pression osmotique et d'un -potentiel intracellulaire constant à 'intérieur des NOP ainsi que des concentrations ioniques stables et suffisantes dans le mucus. III - RÔLE DE L'INNERVATION SENSITIVE
L'innervation sensitive des cavités nasales est assurée par des terminaisons trigéminées libres dans la muqueuse. Ces fibres répondent aux stimulations chimiques dont on peut noter la nécessaire liposolubilité [235- 236]. L'olfaction 68 Cette stimulation chimique entraîne de nombreux et puissants réflexes ayant une fonction de protection : diminution de la fréquence respiratoire, augmentation des résistances nasales, augmentation des sécrétions nasales, voire fermeture du plan glottique [269]. Mais elle interfère également avec l'olfaction par deux modalités: * Les molécules odorantes peuvent stimuler directement les fibres sensitives cependant que certaines molécules chimiques peuvent stimuler les terminaisons olfactives : Des enregistrements électrophysiologiques du nerf trijumeau en réponse à des stimulations chimiques montrent que les seuils de stimulation trigéminée sont environ de deux ordres de grandeur supérieurs aux seuils olfactifs des mêmes composés [261]. il existe néanmoins une grande variabilité selon les stimulus. Quant à la question d'une éventuelle spécificité des chémorécepteurs trigéminés, la réponse est encore en suspens. Les fibres trigéminées semblent réagir à une grande variété de stimulus, et il semble exister différents types de chémorécepteurs [28], [203], [207]. * Les projections centrales communes aux voies trigéminées et olfactives pourraient moduler la réponse olfactive : Des interactions centrales entre les systèmes sensitifs et olfactifs ont été mises en évidence. TI a été montré que la stimulation élective du nerf naso-ciliaire (V) entraîne des modifications significatives du potentiel dans le noyau dorso-médian du thalamus et l'aire hypothalamique latérale. Au niveau de ce noyau dorso-médian du thalamus, les méthodes d'enregistrement neuronal unitaire ont montré que les mêmes neurones répondent soit à une stimulation trigéminée, soit à une stimulation olfactive. Enfm, l'inhibition par la procaïne des fibres: trigéminées entraîne un abaissement du seuil des neurones de ce noyau en réponse à une stimulation olfactive [102]. Ces fortes interactions entre le système trigéminé et le système olfactif imposent de choisir avec discernement les molécules odorantes servant de base aux tests olfactifs. '
IV - LA TRANSDUCTION OLFACTIVE
L'étape suivante est la transduction qui s'opère dans le neurone olfactif primaire entre la molécule odorante et le récepteur olfactif. Le bouleversement de nos conceptions sur la transduction olfactive est intervenu lorsque BUCK et AXEL [25] ont mis en évidence l'existence d'une famille de quelque mille gènes codant pour les protéines réceptrices des molécules odorantes. Ainsi, à la différence de la vision, de l'audition ou de l'équilibre qui ne mettent en jeu que trois à quatre types de récepteurs, l'olfaction se caractérise par un nombre considérable de récepteurs périphériques différents. Le récepteur membranaire est une protéine avec sept domaines trans-membranaires lée à plusieurs protéines nucléotidiques (protéine G), elle-même couplée à une enzyme intracellulaire. [25], [134] [205]. Les protéines réceptrices sont situées sur les cils des NOP. Il est hautement probable que chaque NOP n'exprime sur ces cils qu'une ou quelques-unes des protéines codées par les milles gènes récepteurs [186] [265]. Ce regroupement de récepteurs ayant les mêmes propriétés défmit une répartition par zones, comme cela a pu être mis en évidence chez le rat [210], [250]. L'existence de ces zones confrrme les données obtenues par ASTIC et coll. [7] qui avait démontré que les NOP convergeant vers un même glomérule du bulbe olfactif étaient localisés dans une bande relativement étroite et allongée selon l'axe antéro-postérieur du neuroépithélium. Les données actuellement disponibles sur le fonctionnement du neuro-récepteur résultent essentiellement d'études électrophysiologiques et de biologie moléculaire. L'olfaction 70 1 - Les données électrophysiologiques : Ces études ont permis d' établir les caractéristiques électrophysiologiques de la muqueuse puis des cellules réceptrices olfactives ainsi que la séquence des évènements électriques déclenchés par l'arrivée d'un odorant. - Il existe une latence de quelques centaines de millisecondes entre l'application d'un odorant à la surface de la muqueuse [191] et la variation de la différence de potentiel transépithéliale mesurée par électro-olfactogramme. Celle-ci présente deux composantes: l'une, marquée, qui culmine à 200 ms, l'autre, moins marquée mais soutenue qui perdure autant Cette latence suggère que l'exposition à l'odorant [76]. l'implication d'un « deuxième messager». - Les odorants stimulent le neuroépithélium de façon très hétérogène selon une cartographie spécifique de chaque.odorant [151]. - La sélectivité des NOP est faible comme font montré les enregistrements unitaires des potentiels d'action : les NOP répondent individuellement à un grand nombre de stimulants, avec toutefois un profil de réponses caractéristique de tel ou tel NOP [75] [79][80] [188][233] [262]. Certaines réponses sont de. type excitateur, d'autres de type inhibiteur. De ces premières séries d'études, il ressortait que, pour une odeur donnée, la réponse électrique des NOP variait en fonction de la concentration : une augmentation de celle-ci se traduisait par une augmentation de la fréquence de décharge et une diminution de la latence. - Les NOP sont extrêmement sensibles, des courants aussi faibles que celui produit par l'ouverture d'un seul canal ionique sont susceptibles de provoquer une dépolarisation des NOP [150],[155]. En d'autres termes, la fixation d'une ou d'un petit nombre de molécules est vraisemblablement suffisante pour déclencher un potentiel d'action [147],[159]. L'olfaction 71 - Les premières études de la réponse des NOP à une molécule odorante par la technique de patch-clamp ont été réalisées par FIRESTEIN et WERBLIN [66]. Leurs observations.suggèrent que le mécanisme de transduction ouvre une conductance cationique non spécifique, et qu'il existe un phénomène de coopération. Des travaux ultérieurs ont montré que le courant induit par l'odorant était non seulement cationique, notamment calcique, mais également anionique, avec un courant cr Ca++ dépendant [125], [135]. Toutes ces données électrophysiologiques permettent de déduire les événements électriques survenant dans les NOP [221] : - Au repos, le potentiel de membrane est déterminé par une conductance K+ très faible. La faiblesse de ce courant K+ liée au peu de canaux K+ ouverts au repos explique à la fois la très haute résistance de repos et l'extrême sensibilité de la cellule. - L'arrivée d'une molécule odorante active des canaux canoniques perméables au sodium, au potassium et surtout au calcium [42],[185]. Ceci crée un potentiel d'action qui active des canaux Ca2+ situés sur le soma et la partie proximale du dendrite [220]. - Le flux intracellulaire de Ca2+ qui en résulte active à son tour une conductance cr située sur les cils qui, en raison d'un gradient favorable, provoque la sortie de cet anion, ce qui majore la dépolarisation cellulaire [125] et le potentiel de récepteur. Il est intéressant de souligner que la conductance cr pourrait aussi, en fonction du potentiel d'équilibre du cr, provoquer une entrée de l'anion et donc une hyperpolarisation, ce qui rendrait compte des réponses inhibitrices observées dans certains NOP en réponse à des odorants. 2 - Les données de la biologie moléculaire : Les événements électriques que nous venons de voir sont déclenchés par l'interaction d'une molécule odorante et d'un récepteur olfactif. Le développement des techniques de biophysique, de biochimie conventionnelle et surtout de biologie moléculaire a permis L'olfaction 72 d'enrichir considérablement nos connaissances des processus de transduction et de proposer avec toutes les réserves liées aux types de modèles expérimentaux utilisés la description suivante. La transduction fait donc intervenir trois composants membranaires, le récepteur protéique, couplé à plusieurs protéines G, elles-mêmes couplées à une enzyme intracellulaire. La fixation d'un odorant sur le récepteur stimule (ou inhibe) une ou plusieurs protéines G. Il en résulte une amplification considérable du signal olfactif. La ou les protéines G stimulées stimulent ensuite l'enzyme intracellulaire auquel elles sont couplées, ce qui déclenche une cascade de seconds messagers selon deux grandes voies. a) La première, la mieux étudiée, est celle de l' AMPc : L'enzyme stimulé est l'adénylyl cyclase de type III, ce qui entraîne une augmentation de la concentration intracellulaire en AMP c [9], [113], [157], [192]. L'augmentation transitoire d'AMPc dans le cil déclenche l'ouverture de canaux canoniques [42]. Ces canaux cAMPdépendants sont essentiellement situés dans les cils des NOP [133]. Dans des conditions physiologiques, la rerméabilité de ce canal est maximale pour le Ca2+ [221]. Le Ca + joue donc ici le rôle de troisième messager. L'augmentation de sa concentration intracellulaire active, en effet, une conductance cr qui, du fait d'un gradient électrochimique favorable, favorise la sortie de cr, ce qui majore la dépolarisation NOP [125]. Cette première voie de transduction semble donc plutôt excitatrice. Toutefois des études ont montré qu'elle pouvait parfois être inhibitrice [1]. b)* La deuxième voie fait intervenir la formation d'Inositol Triphosphate (IF3) : Certains odorants ne stimulent pas la formation d'AMPc [238] alors qu'ils entraînent une réponse objective sur l'électroolfactogramme [24]. D'autres études ont établi l'augmentation d'un L'olfaction 73 autre second messager, l'IP3, en réponse à certains odorants [18], [100]. Cette deuxième voie de transduction suppose donc qu'il existe des récepteurs couplés à une protéine G et à la phospholipase C. Par l'activation de cette cascade, la formation d'IP3 entraînerait une augmentation de Ca2+, qui à son tour, activerait des canaux potassiques ou canoniques non sélectifs calcium-dépendants. Cette deuxième voie de transduction semble excitatrice. Dans les deux voies, le calcium apparaît comme le troisième messager de la transduction olfactive. D'autres voies de transduction que celle de l'AMPc ou de l'IP3 mais dont le second messager n'est pas clairement identifié semblent exister. La diversité des voies de transduction explique que les NOP puissent être soit activés, soit inhibés par les odorants, ce qui permettrait un premier codage qualitatif. v - LE CODAGE DE L'INFORMATION
Dans la plupart des systèmes sensoriels (somesthésique, visuel ou sonore), le codage de l'information périphérique en une activité neuronale signifiante repose sur l'organisation topographique des récepteurs ou des neurones sensoriels et de leurs proj ections axonales, de telle sorte que les centres réalisent une représentation interne, topographique, du monde sensoriel extérieur. En d'autres termes, le codage.de ces stimulus repose sur les coordonnées spatiales de l'activité neuronale dans les centres d'intégration, et la discrimination entre les différents signaux résulte de la stimulation de sous-ensembles de neurones topographiquement distincts. L'olfaction 74 Dans le cas du système olfactif, c'est: - L'extraordinaire diversité des récepteurs périphériques, Le regroupement glomérulaire des projections axonales,. L'établissement d'une cartographie d'activation glomérulaire, et sans doute le codage temporel qui permettent la [messe de la discrimination. Des approches indépendantes moléculaires et fonctionnelles [55] permettent aujourd'hui d'élaborer un modèle rendant compte de la discrimination des odeurs. Ce modèle est basé sur la traduction du pouvoir odorant d'une molécule en une cartographie de stimulation. Nous avons vu qu'il existe un grand nombre de récepteurs, probablement de l'ordre d'un millier, et que ceux-ci se regroupaient en « famille » dans certaines zones du neuroépithélium, réalisant une première cartographie assez grossière de stimulation périphérique. Il a été montré chez *le rongeur que les NOP exprimant le même récepteur et répondant donc aux mêmes stimulus olfactifs projettent leurs axones sur un seul ou un petit nombre de glomérules au sein du bulbe olfactif, [167], [209],[264-265]. Ainsi le bulbe olfactif regroupe sur les glomérules les signaux émis par les mêmes récepteurs et en fournit une image en deux dimensions. Le glomérule apparaît donc comme une unité fonctionnelle essentielle, à la base d'une colonne primitive ou proto-colonne [93] formée des NOP convergeant vers lui, et des cellules mitrales, des cellules à panache et des intemeurones qui leur correspondent. Le codage de la discrimination olfactive résulte donc de la détection par le cerveau d'une image de l'activité glomérulaire. Cette conception du codage périphérique rend compte de la discrimination des odeurs au plan qualitatif Il est permis de penser qu'une information quantitative peut également être fournie. En effet, FRIEDRICH et KORSCHING [74] ont, sur le poisson zèbre, observé que le nombre de glomérules activés augmente avec l'augmentation de la concentration des odorants, ce qui apparaît comme la conséquence logique d'une saturation des récepteurs les plus spécifiques et du des récepteurs de plus faible affinité. Ce phénomène pourrait rendre compte du codage à la fois qualitatif et quantitatif. Chaque odorant stimule donc certains types de récepteurs répartis de façon hétérogène dans le neuro-épithélium. Ce motif d ~ activité réalise une « image neuronale» de l'odeur qui ne peut être reconnue que dans la mesure où l'aire de projection, le bulbe olfactif, est organisée de façon à tirer parti de messages spatialement structurés. Il existe donc une chimiotopie du bulbe du fait du regroupement des projections des NOP exprimant le même récepteur sur un même glomérule et du regroupement des glomérules ayant des profils de réponse similaires. L'intégration bulbaire du message olfactif repose sur l'interaction de trois cellules le NOP, la cellule mitrale et la cellule périglomérulaire [54]. Cette interaction est à la fois excitatrice et inhibitrice et respectivement médiée par deux types de neurotransmetteurs : le glutamate et le GABA. Le NOP libère du glutamate qui active la cellule mitrale, cette dernière libère également du glutamate qui active la cellule périglomérulaire [171]. En retour, la cellule péri-glomérulaire libère du GABA qui exerce une action inhibitrice à la fois sur le NOP et la cellule mitrale [200]. Cette action GABAergique a pour effet essentiel de moduler l'activité spontanée de la cellule mitrale et de faciliter l'émergence d'une activité codante [272]. En atténuant l'excitabilité des cellules mitrales, les cellules périglomérulaires atténuent l'effet amplificateur de la convergence glomérulaire et permettent une réponse mieux adaptée à l'intensité du stimulus. Cet effet modulateur est d'autant plus marqué que le stimulus olfactif est intense. Un autre neuromédiateur semble jouer un rôle important. La dopamine est, en effet, largement distribuée dans la population glomérulaire et notamment dans les cellules mitrales [218],[54]. Par l'intermédiaire de récepteurs de type D2, elle exerce une action inhibitrice sur la cellule mitrale sans pour autant affecter leur capacité codante. Ceci améliore le rapport signallbruit. Les cellules mitrales jouent un rôle essentiel dans la reconnaissance d'odeurs complexes et dans l'abaissement du seuil de L'olfaction 76 détection grâce à leur connectique très particulière et à la synchronisation de leur activité avec le cycle respiratoire. La dépolarisation des cellules mitrales lors de l'arrivée d'un influx nerveux, c'est-à-dire durant l'inspiration, met en jeu un second système d'interneurones, les cellules granulaires. Ces dernières exercent en retour une inhibition sur les neurones de projection. Cette inhibition perdure durant l'expiration, ce qui contribue à ralentir, voire à interrompre totalement l'activité de ces neurones, les rendant donc prêts pour l'arrivée d'un signal lors de l'inspiration suivante. En d'autres termes, les cellules granulaires contrôlent la durée d'activation des cellules mitrales. L'activité de beaucoup de cellules mitrales apparaît donc synchronisée avec le rythme respiratoire [31]. La notion d'un codage temporel de l'information olfactive repose sur le fait que l'information décrivant un odorant n'est pas seulement contenue dans la population neuronale active lors de chaque cycle oscillatoire, mais sans doute aussi dans la séquence temporelle au cours de laquelle les groupes neuronaux sont activés au cours de chaque cycle respiratoire [271]. VI - LE DEVENIR DE L'INFORMATIüN üLFACTIVE
Le message du bulbe olfactif est adressé en parallèle à plusieurs structures ipsi-latérales qui sont regroupées sous l'appellation de «cortex olfactif primaire», même si toutes n'ont pas une structure corticale typique [201]. La voie de sortie est constituée par les axones des cellules mitrales et de certaines cellules à panache, leurs ramifications empruntent le L'olfaction 77 tractus olfactif latéral (TOL) pour se rendre au noyau olfactif antérieur, au tubercule olfactif, au cortex piriforme et au cortex.péri-amygdalien. Dans ces centres olfactifs primaire, s'opère une stabilisation et une amplification des contrastes de « l'image olfactive». Des interconnexions se font à différent niveau avec notamment : - Le système limbique, intervenant dans la mémorisation olfactive, déterminant la tonalité affective de l'odeur à l'origine de réactions émotionnelles, - L'hypothalamus, à l'origine du traitement affectif du message, en rapport avec le comportement alimentaire et le centre du plaisir, - Le néo-cortex, qui comme pour les autres systèmes sensoriels possède pour le système olfactif une zone d'intégration de niveau élevé. Ces projections se font sur le néo-cortex orbitofrontal ( aire Il de Brodmann) et sur le néo-cortex somatogustatif, où s'élabore la sensation consciente et le traitement logique du message olfactif.
- ANATOMIE DESCRIPTIVE DES FOSSES NASALES ET DE L'ETHMOIDE
Les ouvrages ayant servis de référence pour ce chapitre d'anatomie sont: Rouvière et Dalmas [215], Legent et Perlemuter [141], Frèche [71]. 1 - LES FOSSES NASALES
Les fosses nasales sont deux cavités anfractueuses situées de part et d'autre de la ligne médiane, au-dessus de la cavité buccale, au-dessous de la base du crâne et en dedans des cavités orbitaires. Nous leur considérons: - Un orifice antérieur, - Quatre parois : Une interne, une externe, une supérieure, une inférieure, - Un orifice postérieur. 1 - ORIFICE ANTÉRIEUR : Les deux fosses nasales s'ouvrent en avant par un orifice osseux commun, c'est l'orifice piriforme, Il est circonscrit par le bord antérieur des maxillaires en dehors et en bas, par les os propres du nez en haut. Sa forme est celle d'un coeur de carte à jouer dont la base, dirigée en bas, est échancrée sur la ligne médiane par la crête incisive et l'épine nasale antérieure. 2 - PAROI MÉDIANE OU SEPTUM NASAL: C'est une paroi mince, située dans un plan sagittal. Elle sépare les deux fosses nasales dont elle constitue la paroi médiane. Elle est composée d'une base osseuse, l'os vomer sur lequel repose une partie antérieure cartilagineuse, formée par le cartilage quadrangulaire et une partie postérieure osseuse composée de la lame verticale de l'ethmoïde. d'après Terrier.G (257]
1 :
Cartilage septal ou quadrangulaire 2 : Apophyse caudale du cartilage septal 3 : Vomer 4 : Lame verticale de l'ethmoïde 5 : Os sous-vomérien
6
: Epine nasale antérieure 7 : Os maxillaire 8 : Os palatin 9 : Arc septal 10 : Epine nasale postérieure Il : Os sphénoïde 12 : Os propres du nez ]3 : Articulation chondro-ethmoïdale ]4 : Articulation chondro- vomérienne 15 : Articulation ethmoïdo-vomérienne
- PAROI INFÉRIEURE OU PLANCHER:.
Elle est constituée par l'apophyse palatine ou.lame horizontale de l'os maxillaire en avant et par la lame horizontale du palatin en arrière. Elle a une forme de gouttière qui s'incurve latéralement pour rejoindre sur son bord externe, la branche montante du maxillaire supérieur, support du cornet inférieur. Sur son bord interne, elle se continue verticalement par la cloison.
4 - PAROI EXTERNE OU PAROI TURBINALE DES FOSSES NASALES:
Cette paroi Joue un rôle considérable dans la physiologie respiratoire. Elle est constituée par un assemblage de pièces osseuses qui forment, sur l'os sec, une paroi tourmentée par des reliefs importants et des déhiscences particulièrement dans sa région centrale. On distingue : - Un cadre osseux - Des cornets annexés à ce cadre. a) - Le cadre osseux: Pour bien le comprendre, il faut se rappeler qu'il est constitué de dehors en dedans de trois plans osseux se superposant et se chevauchant plus ou moins. • Le plan externe: L'os maxillaire : Il appartient à la paroi externe des fosses nasales par le segment de sa face interne situé au-dessus de l'apophyse palatine. Il présente un large hiatus triangulaire à base supérieure,c'est l'orifice du sinus maxillaire sur os sec contrairement à l' ostium du sinus qui est une partie de cet orifice sur le vivant. En avant de cet orifice se trouve la gouttière lacrymale. Le sphénoïde: Il n'entre. dans la constitution de cette paroi que le processus ptérygoïde ; celle-ci est placée en arrière du maxillaire et séparée de lui par un espace qui s'élargit de bas en haut, délimitant ainsi la fosse ptérygo-palatine. Cette région contient l'artère maxillaire interne et le ganglion ptérygo-palatin. Le frontal: Illimite en haut ce cadre osseux.
1
1 :
Os frontal
, 2
: Os
Max
illaire
, 3
: Os
Sphén
oïde
, 4
:
Hi
atus max
illa
ire
.
Anatomie fosses nasales et ethmoïde
- Données de la littérature
Le plan moyen : L'unguis ou os lacrymal : en avant Il est situé en arrière de la branche montante du maxillaire supérieur. Sa face externe en forme de gouttière, recouvre les deux tiers supérieurs de la gouttière lacrymale du maxillaire, qu'elle transforme en canal lacrymal ou lacrymo-nasal. Sa partie postérieure masque partiellement l'angle antérieur du hiatus maxillaire. Cette zone constitue voie d'abord endonasale de la voie lacrymale. La lame verticale du palatin : en arrière
Cette lame comble le hiatus entre sphénoïde et maxillaire, fermant ainsi la fosse ptérygo-palatine, à l'exception d'un orifice supérieur qui constitue le foramen sphéno-palatin d'où émerge l'artère maxillaire et certains éléments nerveux à destinée turbinale.
7 5 : Lame verticale du palatin, 6 : Foramen sphéno-palatin, 7 : Os lJ nguis ou lacrymal.
• Le plan médial
Le cornet inférieur : Il est placé à la partie inférieure de la paroi externe des fosses nasales. Il est fixé à la paroi par son bord supérieur, son quart antérieur se fixe sur le maxillaire supérieur en avant (crête turbinale inférieure de l'apophyse montante), son quart postérieur, à la crête turbinale inférieure du palatin. La partie moyenne passe en pont et ferme partiellement le hiatus maxillaire. Trois apophyses ou processus s'en détachent: - L'apophyse lacrymale en avant, s'articule en haut avec l'unguis, complétant ainsi le canal lacrymal, - L'apophyse maxillaire, oblitère toute la partie inférieure du hiatus maxillaire, située au-dessous du bord supérieur du cornet inférieur. - L'apophyse ethmoïdale, inconstante, elle s'articule avec l'apophyse unciforme. Les masses latérales de l'ethmoïde : Elles s'ajoutent aux pièces osseuses qui précèdent pour achever de former la paroi externe des fosses nasales. Elles sont placées au-dessus du maxillaire, en arrière et en dedans de l'unguis, en avant du corps du sphénoïde et de l'apophyse orbitaire du palatin. Chaque masse latérale s'articule avec les os voisins par ses différentes faces. (Cf description chapitre «anatomie de I'ethmoïde » p 93 ) De la face interne qui sépare la fosse nasale de l'ethmoïde se détachent les cornets moyens, supérieurs, suprêmes, la bulle et le processus unciforme, d'où son nom de lame des cornets donné par MOURET [175].
J
8 : Masse latérale de l'ethmoïde. 9 : Cornet inférieur b
) - Les cornets: Ils
sont
amarrés
à
ce cadre
osseux
, créant
a
insi des
in
ég
alités
smueuses en forme
d'auvent,
superposées les unes
au-de
ssus
des autres. Ils
limitent
entre eux
des
s
illon
s appelés
mé
ats. • Le cornet inférieur: Seul, ce cornet est un os indépendant, prenant part entière à la constitution de la paroi externe de la fosse nasale (cf ci-dessus). Il se présente comme une lamelle osseuse recourbée, allongée d'avant en arrière, fixée à la paroi externe des fosses nasales par son bord supérieur, et libre dans la cavité des fosses nasales dans tout le reste de son étendue. Il présente : Une face interne, convexe qui regarde la cloison nasale. Une face externe, concave, limite en dedans le méat inférieur, Un bord supérieur articulaire, Un bord inférieur libre. • Le cornet moyen : C'est le plus développé des cornets ethmoïdaux. Il parcourt toute la longueur de la lame des cornets qu'il déborde en avant et en arrière. Sa portion antérieure s'insère sur la crête turbinale supérieure de l'apophyse montante du maxillaire. En arrière, la queue se fixe sur la crête turbinale supérieure du palatin. La région intermédiaire ou corps du cornet moyen, lame des cornets en se dirigeant en bas et en arrière. parcourt la _ _ _ _ _-L-~- Ethmoïde (lame horù.) ~----~- Masse lat. Ap, lacrym. Cornet sup. ~~r\- Cornet mO}'. ~~~ Sinus sphéll. Trou sphin.-paJ. -~~~.: ~>/ Cometin]. - - - - \ '! - --._ -,(J.~ Ap. ptiryg. d'après Rouvière et Dalmas Anatomie Humaine Tête et cou, tome t Palatin (lame vert.) (aile ",1.) onnées Ce cornet moyen présente en général une courbure concave en dehors, néanmoins, de nombreuses variations anatomiques sont possibles. • Le cornet supérieur ou cornet de Morgagni: Il est situé au-dessus et en arrière de la moitié postérieure du cornet moyen. Son extrémité antérieure s'unit à la partie moyenne du bord supérieur du cornet moyen. • Les cornets suprêmes: Il peut exister un ou deux cornets ethmoïdaux supplémentaires susjacents au cornet supérieur. Ce sont les cornets de Santorini et de Zuckerkandl. La paroi externe de la fosse nasale fait l'objet d'une description une fois revêtue de sa muqueuse pituitaire. Elle est ainsi schématiquement divisée en trois zones : - Une zone postérieure ou turbinale, Cette zone occupe la plus grande partie des fosses nasales et répond aux cornets et.aux méats. - Une zone antérieure ou pré-turbinale, Limitée en arrière par une ligne tendue de la tête du cornet moyen à la tête du cornet inférieur. Cette partie de la paroi externe est lisse, mais présente toutefois une saillie plus ou moins développée dans sa partie postéro-supérieure, c'est l'agger nasi. - Une zone supérieure ou sus-turbinale, J.Ramadier a donné ce nom à une portion de cette paroi, lisse, plane, comprise entre la ligne d'attache des cornets ethmoïdaux et la lame criblée. Sa hauteur mesure en moyenne de 5 à 8 mm. L'extrémité postérieure de cette zone sus-turbinale dessine entre la face antérieure du sphénoïde et le cornet supérieur, une dépression appelée récessus sphéno-ethmoïdal. Ji 1 SJ U' [ro nt a l ( " Zo ne sus turb inalc. _ 1•• ~_Cornet sup. Zo ne cou, c) - Les méats: • Le méat inférieur: Il est compris entre la face externe, concave du cornet inférieur et la paroi inter-sinuso-nasale. Limité en haut par l'attache supérieure du cornet inférieure et en bas par le plancher de la fosse nasale. Il présente 1 à 1,5 cm en arrière de son extrémité antérieure, l'orifice inférieur du canallacrymo-nasal. Anatomie fosses nasales et ethmoïde - Données de la littérature 90 • Le méat moyen: Il est limité en dedans par la face externe du cornet moyen, en bas par le dos du cornet inférieur, en haut par la face inférieure de la racine cloisonnante du cornet moyen et en dehors par la paroi inter-sinusonasale qui présente en avant de nombreuses irrégularités : - L'apophyse ou processus unciforme, - L'orifice ou hiatus du sinus maxillaire, divisé par l'apophyse unciforme et son expansion postérieure en trois orifices secondaires, La bulle ethmoïdale, - Une travée osseuse «unci-bullaire », unissant l'extrémité supérieure de l'apophyse unciforme à l'extrémité supérieure de la bulle, - Les orifices de cellules ethmoïdales. Le méat moyen présente donc une paroi externe très irrégulière. La muqueuse recouvre les saillies sus-citées et se réfléchit dans les orifices des cellules ethmoïdales. Elle ferme deux des trois orifices osseux du sinus maxillaire. Normalement, seul l'orifice supérieur placé au-dessus de l'apophyse unciforme reste ouvert, c'est l' ostium de drainage du sinus maxillaire. L'ouverture d'autres orifices accessoires est possible, ce sont les fontanelles. Quand la muqueuse est en place, la face externe du méat est occupée dans sa partie supérieure et moyenne par deux saillies, l'une antérieure appelée apophyse unciforme, l'autre postérieure appelée bulle ethmoïdale. Le processus unciforme et la bulle ethmoïdale entraînent la formation de deux gouttières dirigées parallèlement aux saillies. - Entre l'unciforme et la bulle se trouve la gouttière unci-bullaire ou infundibulaire. Anatomie fosses nasales et ethmoïde - Données de la littérature 91 - Entre la bulle ethmoïdale et la racine cloisonnante du cornet moyen, se voit une deuxième gouttière, moins profonde et moins étendue que la précédente, c'est la gouttière rétro-bullaire. Au niveau et en avant de l'extrémité supeneure du processus unciforme, la paroi externe du méat moyen est soulevée dans la plupart des cas par une saillie en forme de bourrelet, allongée de haut en bas et d'arrière en avant. Cette saillie est l'agger nasi. ". ~ '~~...\
.
Silius
s
phe«
, ; ', M~t SI~P. ~,a.---M ëa: de Santorini -' Gouu. râro-
bullair
e. BuUe ethm. Paro
i latérale des fosses nasales après résection partielle du cornet moyen. • Le méat supérieur: Il présente deux à trois orifices de cellules ethmoïdales. En arrière du méat supérieur, existe le foramen sphéno-palatin, en arrière duquel se trouve le canal ptérygo-palatin. • Les méats suprêmes: Les méats de Santorini et de Zuckerkandl sont inconstants. Chacun d'eux présente l'orifice d'une cellule ethmoïdale.
5 - PAROI SUPÉRIEURE: PLAFOND OU VOÛTE DES FOSSES NASALES
: Cette paroi est formée d'avant en arrière par les os propres du nez, l'épine nasale du frontal, la lame horizontale de l'ethmoïde et le corps du sphénoïde. Cette paroi a la forme d'une gouttière antéro-postérieure, large de 3 à 4 millimètres en moyenne, plus étroite cependant à sa partie moyenne qu'à ses deux extrémités. Sa concavité regarde vers la cavité des fosses nasales. On peut distinguer à cette paroi, en raison de l'orientation différente qu'elle présente suivant les points considérés, quatre segments : - Un segment antérieur, fronto-nasal, oblique en haut et en arrière, constitué par les os nasaux et l'épine nasale du frontal, - Un segment ethmoïdal, horizontal, formé par la lame criblée de l'ethmoïde et, en arrière de cette lame, par le processus ethmoïdal du corps du sphénoïde, - Un segment sphénoïdal vertical, formé par la face antérieure du corps du sphénoïde, sur laquelle on remarque l'orifice du sinus sphénoïdal, - Un segment sphénoïdal oblique en bas et en arrière, représenté par la face inférieure du sphénoïde. ORIFICE POSTÉRIEUR: Les fosses nasales s'ouvrent en arrière par un orifice distinct pour chacune d'elles. Ces orifices, appelés choanes, sont rectangulaires, allongés, obliques de haut en bas et d'arrière en avant. Ils sont limités : - En dehors par l'aile médiale du processus ptérygoïde, - En dedans, par le bord postérieur du vomer qui sépare les deux choanes l'une de l' autre, -. En haut, par le corps du sphénoïde et par le bord postérieur des ailes du vomer, - En bas, par le bord postérieur de la lame horizontale du palatin.
II - L' ETHMÜIDE
L'anatomie de l'ethmoïde, parfaitement décrite au début du 20ème siècle, notamment par ZUCKERKANDL [283] puis par MOURET [175], a bénéficié d'un regain d'intérêt avec l'avènement de la chirurgie endoscopique, comme en témoignent les nombreuses études récentes consacrées a cette anatomie [86], [3], [203]. 1 - L'OS ETHMOÏDAL : L'ethmoïde est situé au-dessous de la partie horizontale du frontal, à la partie antérieure et médiane de la base du crâne. Il comble l'échancrure ethmoïdale du frontal et s'unit à ce dernier. Il est constitué de quatre parties : Anatomie nasales et
eth
moïde rature Une lame horizontale ou lame criblée, qUI coupe la lame verticale près de son extrémité supérieure, - Une lame osseuse sagittale verticale, antéro-postérieure et médiane, scindée en deux par la lame horizontale en : • Une partie supérieure ou apophyse crista-galli, faisant saillie dans la boite crânienne, • Une partie inférieure ou lame perpendiculaire de l'ethmoïde qui entre dans la constitution de la cloison nasale. Deux masses latérales appendues aux extrémités latérales de la lame horizontale. Chaque masse latérale présente un contenant à 6 faces, ou « carter ethmoïdal » selon ROUVIER [86], et un contenu ou «labyrinthe ethmoïdal », composé de cellules osseuses pneumatisées. Ces cellules se drainent dans les fosses nasales par la face médiale du carter ethmoïdal. 2
- LE CAR
TER ETHMOÏ
DAL
: Le carter ethmoïdal est un parallélépipède rectangulaire, il mesure 4 à 5 cm de long, 2,5 à 3 cm de haut, pour une largeur de 0,5 à 1 cm en avant et 1,5 à 2 cm en arrière. Il présente 6 faces, et s'articule par ses parois supérieure, inférieure, postérieure et antérieure aux os avoisinants par des demi-cellules, de telle sorte que le labyrinthe ethmoïdal déborde de l'ethmoïde dans les os de voisinage. Les 6 faces du carter ethmoïdal : a ) La face supérieure ou cranio-frontale : Elle prolonge latéralement la face supérieure de la lame criblée et s'articule avec la surface ethrnoïdale de l'os frontal. Elle est creusée de cavités ou demi-cellules ethmoïdales qui sont recouvertes et complétées par des demi-cellules frontales. C'est l'importance de la pneumatisation de ces cellules, qui induira les variations de hauteur de la jonction entre lame criblée et toit ethmoïdofrontal. Le toit ethmoïdal, ou fovéa ethmoïdalis, se présente par sa face inférieure, comme une voûte longitudinale, blanc nacré, dure et résistante (« White hard roof» des auteurs anglo-saxons). b ) La face antérieure ou maxillo-lacrymaie : Cette face présente également des demi-cellules complétées par des demi-cellules lacrymale et maxillaire, elle s'articule donc avec l'unguis et la face postérieure de la branche montante du maxillaire, délimitant une gouttière verticale dans laquelle chemine la voie lacrymale. c) La face inférieure : Elle s'articule : - En dehors et en avant avec la partie supérieure de la face interne du maxillaire. Les cellules qui unissent l'ethmoïde au sinus maxillaire peuvent être fortement pneumatisées et former les cellules ethmoïdo-maxillaire de HALLER. - En dehors et en arrière avec la facette ethmoïdale du processus orbitaire du palatin. - En dedans la face inférieure est libre ouverte dans la fosse nasale. ) La face postérieure ou sphénoïdale: Elles'unit à la face antérieure du corps du sphénoïde et présente de même que les.autres faces articulaires une ou plusieurs demi-cellules. e) La face externe: De forme quadrilatère, fait partie de la paroi interne de l'orbite, c'est l'os planum ou lame papyracée. Cette/ lame est extrêmement mince et vulnérable, mais est doublée sur son versant externe par le périoste orbitaire, épais et résistant. f) La face interne : Très irrégulière, donne naissance aux cornets ethmoïdaux, d'où son nom de lame des cornets donné par MOURET. Elle s'insère en haut immédiatement en dehors de la lame criblée, et constitue donc une balise entre le toit ethmoïdal en dehors et la lame criblée en dedans. Sur la partie supérieure de cette lame qui est continue, on peut apercevoir des sillons creusés par les filets olfactifs. 3], * chaque cornet ethmoïdal principal tire son origine de la lame papyracée et de la lame médiale par l'intermédiaire d'un simple feuillet ou lamelle osseuse. Un cornet ethmoïdal est donc la partie médiale et enroulée d'une cloison osseuse issue latéralement. Ces lamelles osseuses subdivisent ainsi le carter ethmoïdal en différentes cavités appelées « cellules». Ces cellules ethmoïdales sont donc des cavités pneumatiques, au nombre de huit à dix, qui s'ouvrent dans les méats ethmoïdaux par des orifices creusés dans l'épaisseur des masses latérales de l'ethmoïde. Les cellules ethmoïdales sont creusées soit en totalité dans les masses latérales de l'ethmoïde, soit à la fois dans les masses latérales et dans les os qui s'articulent avec elles. Les cellules s'ouvrent dans un méat d'autant plus élevé qu'elles sont plus postérieures. Aussi divise-t-on généralement les cellules ethmoïdales en deux groupes principaux : les cellules ethmoïdales antérieures qui s'abouchent dans le méat moyen et les cellules ethmoïdales postérieures qui s'ouvrent dans le méat supérieur, dans le méat de Santorini et dans le méat de Zuckerkandl. La systématisation anatomique ethmoïdale date des travaux de MOURET [175] qui désigne les lamelles osseuses par le terme de « racine cloisonnante ». Le scanner a permis de confrrmer et d' affmer cette systématisation. Afm d'éviter les redites, la systématisation est traitée au chapitre « anatomie scanographique p 107».
- ANATOMIE ENDOSCOPIQUE DES FOSSES NASALES ET DE L'ETHMOïDE
Cette anatomie est d'un intérêt fondamental actuellement, en effet l'endoscopie rhino-sinusale présente de nombreuses applications tant sur le plan diagnostic que thérapeutique, dans tous les domaines de la rhinologie: 1 - LES FOSSES NASALES 1 - LE VESTIBULE : C'est l'orifice d'entrée du nez, il donne accès à la fosse nasale. Il est délimité par un orifice inférieur et un orifice supérieur. - L'orifice inférieur ou superficiel constitue l'ouverture extérieure du nez, il est formé par le pli de peau qui le circonscrit et qui pénètre dans le couloir nasal. Pour l' endoscopiste, c'est la narine. - L'orifice supérieur ou profond marque réellement le début de la fosse nasale, correspondant à la ligne de transition entre la peau et la muqueuse pituitaire. Cette jonction cutanéo-muqueuse délimite un passage ovalaire, large dans le bas mais étroit dans le haut. En effet dans sa partie supérieure, il s'amincit comme une fente, formée par le bord caudal du cartilage triangulaire qui s'applique contre le cartilage quadrangulaire de la cloison et qui s'en écarte dans l'inspiration profonde. Cette fente est appelée valve nasale. D'un point de vu fonctionnel, TISSERANT et WAYOFF [260] ont montré que cette valve na est une région dans laquelle il faut inclure la tête du cornet inférieur, le seuil de l'orifice piriforme et la cloison antérieure. PAROI MÉDIALE OU SEPTUM NASAL: Elle sépare les deux fosses nasales; et soutient la pyramide nasale en avant. Elle est composée d'une base osseuse, l'os vomer sur lequel repose une partie antérieure cartilagineuse, formée par le cartilage quadrangulaire et une partie postérieure osseuse composée de la lame perpendiculaire de l'ethmoïde. Sur le plan endoscopique, l'articulation chondro-vomérienne forme une arête inférieure oblique en bas et en avant, située en regard du cornet inférieur. L'articulation chondro-ethmoïdale forme une arête supeneure oblique en haut et en avant, située en regard du cornet moyen. Ces deux arêtes ne sont pas toujours visualisables. *3 - PAROI INFÉRIEURE OU PLANCHER:
Elle à la forme d'une large gouttière à concavité supérieure, elle est constituée d'avant en arrière par une muqueuse qui recouvre le bloc incisif et les lames horizontales des os maxillaire et palatin. Elle se continue en arrière sans ligne de démarcation, par le voile du palais, qui est reconnu par sa légère convexité et qui est bordé, de chaque côté, par les bourrelets tubaires, limitant la paroi latérale du pharynx.
4 - PAROI LATERALE OU PAROI TURBINALE DES FOSSES NASALES:
Surface anfractueuse, c'est la paroi des cornets. Ses inégalités sinueuses sont constituées par des saillies en forme d'auvent, superposées les unes au-dessus des autres, appelées cornets. Ceux-ci limitent entre eux des sillons appelés méats. a) Le cornet inférieur et son méat: Le méat inférieur ou méat lacrymal est le prolongement latéral et vertical du bord externe du plancher nasal. TI est recouvert par l'épais renflement du cornet inférieur, dont la tête ferme l'entrée méatique. On peut suivre le corps turbinal jusqu'à sa queue, qui s'applique contre l'apophyse verticale du palatin marquant ainsi la frontière latérale de la choane. Le cornet inférieur est recouvert par une muqueuse en partie érectile. Le tissu érectile recouvre toute la face convexe du cornet. TI est surtout abondant au niveau de la tête et de la queue ainsi que sur le bord inférieur. Habituellement lisse, la muqueuse s'hypertrophie parfois et présente alors des granulations et des papilles qui lui donne un aspect verruqueux ou mûriforme. Le cornet inférieur peut-être très largement é ou au contraire réduit à une mince lame aplatie. TI est exceptionnellement gonflé par pneumatisation, sa tête ou son corps présentent alors un aspect bulleux. Le corps du cornet inférieur forme le toit du méat inférieur. On trouve au niveau de ce méat l'orifice du canal lacrymo-nasal, environ 1 cm en arrière de la tête du cornet inférieur, en général si petit qu'on 'ne le distingue que très difficilement, d'autant qu'il présente un trajet sous muqueux et se termine par un repli. Cette disposition protège les voies lacrymales contre un reflux et une infection ascendante. Anatomie fosses nasales et ethmoïde - Données de la littérature 101 A 2 cm environ de l'entrée du méat se situe sa partie la plus haute. C'est à ce niveau que la paroi externe, présente un endroit de moindre résistance, constituée par une lamelle osseuse plus mince, c'est l'apophyse maxillaire du cornet inférieur. C'est le lieu d'élection de la ponction du sinus maxillaire et de l'introduction du sinusoscope, b ) Le cornet moyen: Le cornet moyen est une lame osseuse insérée sur la paroi nasale externe et revêtue d'une muqueuse lisse. On découvre sa tête, dans la fosse nasale moyenne, au centre du cadre de l'opercule. Sa tête est libre et cache partiellement, quand elle est normale, l'entrée de son méat ou totalement, quand elle est congestionnée ou hypertrophiée. Ce rôle de couvercle lui vaut son nom d'opercule. Elle a une forme de massue ou d'étrave de navire, précédant le bord antérieur du corps turbinal. Son attache supérieure s' affme comme un col pour s'insérer sur hl' paroi externe, c'est le col de l'opercule. Le col de l'opercule se continue latéralement par le replis de l'apophyse unciforme qui obture partiellement l'entrée du méat moyen. Cette entrée est donc bordée, du côté interne par l'opercule et du côté externe par l'apophyse unciforme. C'est un passage étroit qui peut être appelé la fente pré-méatique moyenne. Du col de l'opercule s'individualise également un repli pré-turbinai qui descend rejoindre le corps du cornet inférieur. Cette arête limite une voussure parfois aplatie, parfois bulleuse qui renferme une cellule ethmoïdaIe: l' agger-nasi ou cellule unciformienne antérieure, dont l' ostium peut s'ouvrir dans la zone pré-turbinaIe.
4 Fosse nasale gauche: 5 1 : Tête du cornet moyen ou opercule, 2 : Processus unciforme, 3 : Repli pré-turbinai, 4 : Agger nasi, 5 : Col de l'opercule, 6 : Septum nasal..
| 11,157
|
https://openalex.org/W2963665191_1
|
Spanish-Science-Pile
|
Open Science
|
Various open science
| 2,016
|
Fibules digitées de tradition « danubienne » de l’époque des Grandes Migrations, découvertes en Gaule du Sud
|
None
|
French
|
Spoken
| 6,881
| 14,680
|
Fibules digitées de tradition “ danubienne ” de l’époque
des Grandes Migrations, découvertes en Gaule du Sud.
Michel Kazanski
To cite this version:
Michel Kazanski. Fibules digitées de tradition “ danubienne ” de l’époque des Grandes Migrations,
découvertes en Gaule du Sud.. Archéologie du Midi Médiéval, 2019, T. 34, p. 37-49. �hal-02187348�
HAL Id: hal-02187348
https://hal.science/hal-02187348
Submitted on 18 Jul 2019
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 37
Fibules digitées de tradition « danubienne » de l’époque
des Grandes Migrations, découvertes en Gaule du Sud
Michel KAZANSKI*
En Gaule du Sud durant la deuxième moitié du Ve siècle et au VIe siècle se diffusent les fibules digitées dont certaines
appartiennent à la tradition vestimentaire « danubienne» des Germains orientaux et caractérisent « la classe moyenne »
des sociétés barbares du début du Moyen Âge. Les fibules de tradition danubienne représentent le témoignage archéologique des contacts entre la Gaule du Sud et les royaumes germaniques orientaux du Danube moyen et d’Italie. Ces
contacts, à part les relations avec l’Italie ostrogothique, sont peu attestés par les auteurs anciens, car le matériel archéologique et les sources écrites montrent l’histoire d’une façon différente.
Mots-clés : fibules, époque des Grandes Migrations, Gaule du Sud, Germains orientaux, Wisigoths, Danube.
INTRODUCTION
En Gaule du Sud durant la deuxième moitié du
Ve siècle et au VIe siècle, comme partout en Europe, se
diffusent les fibules digitées. On peut y distinguer
plusieurs types « septentrionaux », répandus en Gaule du
Nord (voir par ex. Koch 1998, Karten 4,5,8,9,10 etc. ;
Stutz 2000, fig. 3.6-9, 4.1,2). D’autres fibules, à pied
losangique et à tête semi-circulaire, appartiennent à la
tradition germanique orientale (fig. 1). Les fibules de ce
type, ornées d’un décor végétal ou géométrique en relief,
apparaissent dans la région du Danube moyen au
deuxième tiers du Ve siècle (Tejral 2002, 321). Parmi les
types danubiens les plus anciens il faut citer celui de
Sokolnice, portant un décor en volutes sur le pied et sur
la tête (fig. 2.4). Ces agrafes apparaissent dans la région
du Danube moyen au milieu du Ve siècle et donnent des
ramifications nombreuses dans la deuxième moitié du Ve
-début du VIe siècle (par ex. fig. 2.5,10,11) (Tejral 1997,
349, 359, Abb. 28. 13,14; Tejral 1997a, 144, fig . 10.7,8 ;
Tejral 2002, 321, Abb. 6.7,8 ; Tejral 2008, 258, Abb.
5.16 ; Menke 1986, 247). A la même époque se diffusent
les fibules danubiennes portant un décor radial sur la tête
et en forme de losanges sur le pied (Tejral 2002, 321,
Abb. 6.1,2,5,9 ; Tejral 2008, 258, Abb. 5.1-3) (fig. 2.1-3).
Les fibules digitées à tête semi-circulaire et pied
losangique font partie du costume féminin en Italie
ostrogothique, ainsi que dans les royaumes germaniques
du Danube moyen (Gépides, Suèves, Skires, Ruges etc.),
chez les Goths de Crimée ainsi qu’en Espagne wisigothique. Elles étaient portées sur les épaules, souvent
accompagnées d’une grande plaque-boucle de ceinture
(Bierbrauer 1975, 71-83). Il s’agit assurément d’un
costume féminin « ethnographique » de tradition germanique orientale - un des rares traits dans les royaumes
romano-germaniques d’Occident permettant d’identifier
la population qui se réclamait de l’identité «gothique».
Notre propos consiste à présenter les fibules de ce
groupe (1), découvertes en Gaule du Sud (2), dans la
zone des royaumes wisigothique et ostrogothique.
L’étude de leur origine précise contribuera à nos connaissances des contacts entre les royaumes gothiques
d’Occident et l’Europe centrale. Il faut souligner la rareté
de ces fibules même à l’intérieur des sites funéraires
fouillés, ce qui montre que dans les anciennes communautés méditerranéennes, les porteurs, ou plutôt les
porteuses de ce costume étaient très minoritaires. D’autre
part, ces personnes n’étaient pas toutes obligatoirement
d’origine gothique. En effet, dans les royaumes barbares
d’Occident le costume féminin germanique, en quelque
sorte « ethnographique » à l’origine, devient progressivement un signe distinctif de position sociale (voir en particulier von Rummel 2007, 401-406).
∗ Directeur de Recherche (DR 2) au CNRS - UMR 8167 « Orient et Méditerranée », Collège de France, 52, rue du Cardinal Lemoine, Paris-75005 ;
[email protected].
1
Je remercie Patrick Périn pour la lecture critique et amicale de cette étude. Remerciements à Guy Barruol et Michel Feugère pour la critique constructive.
2
Certaines fibules digitées du Midi, comme l’exemplaire de Figaret à Guzargues (Hérault) ou encore de Routier (Aude) (Landes 1988, N° 9,11) n’apparaissent pas dans cette étude parce que je ne connais pas leurs parallèles proches dans la région danubienne.
ARCHÉOLOGIE DU MIDI MÉDIÉVAL, TOME 34 - 2016, 37-49
37
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 38
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Fig. 1 :.Les découvertes des fibules digitées de tradition germanique orientale en Gaule du Sud. 1 : Taradeau-Saint-Martin;
2 : Souyri; 3: Sérignan; 4: Saint-Affrique; 5: Laroque-Castayrols; 6 : Estagel ; 7 : Toulouse ; 8 : Montheils.
LES PETITES FIBULES
DU TYPE DE FICAROLO (fig. 3).
Taradieu-Saint-Martin (Var).
Ce type, daté de la deuxième moitié du Ve et du début
du VIe siècle a été étudié grâce aux découvertes effectuées en Italie ostrogothique, dans la tombe 4 de Ficarolo
(Bierbrauer et al. 1993, 322-324) (fig. 3.4). Ce sont les
petites agrafes (moins de 10 cm de la longueur), à trois
doigts, qui présentent un décor à quatre volutes dans la
partie centrale du pied et à deux volutes opposées sur la
tête, parfois séparées par un triangle en taille biseautée
ou par une nervure verticale. L’anse est divisée en deux
champs par une ligne longitudinale en relief. Le pied se
termine par un masque zoomorphe. Enfin, les bordures
du pied et de la tête, ainsi que de l’anse, portent parfois
un décor en petits triangles poinçonnés.
Une pièce dérivée de ce type provient de TaradieuSaint-Martin, en Provence (Var, commune de Taradeau),
c’est-à-dire du territoire du royaume italo-osthrogothique (fig. 1.1). Lors de travaux effectués dans la
chapelle de Saint-Martin (construite au XIIe siècle), on a
mis au jour deux niveaux d’inhumations - gallo-romaine
en coffrage en tuile et celui du Haut Moyen Âge. Les
inhumations médiévales étaient déposées selon l’axe
Nord-Sud, en terre libre. La fibule en question est le seul
objet conservé de cette découverte. La fibule est faite de
bronze étamé, sa longueur est de 6,2 cm (Boyer 1971,
153, 154, fig. 6.3 ; première notice dans Gallia 27, 1969,
145). Seulement deux des cinq doigts sont conservés, le
décor végétal du pied et de la tête est dégradé, l’extrémité du pied est ornée d’un masque zoomorphe (fig. 3.1).
3
38
Les petites fibules de ce type se diffusent dans une
zone assez large. En premier lieu il faut évoquer des
pièces découvertes en Gaule de l’Est, provenant de
Brochon (fig. 3.2), de Chaussin (fig. 3.3) (Vallet,
Kazanski, De Pirey 1995, 112, 117, fig. 4.5 ; Koch 1998,
222-224, N° 202, 238, Taf. 34.1,2), de BâleGotterbarmweg, tombe 22 (fig. 3.6) (Vogt 1930,
Taf. 10.XXII.3,4), de Bâle -Kleinhüningen, tombe 75
(fig. 3.5) (Giesler-Müller 1992, Taf. 67.3,4), où elles font
partie du groupe B des fibules, d’origine germanique
orientale, selon M. Martin (Martin 2002, 198, 199,
Abb. 3). D’autre part, ces fibules ont été mises au jour à
Ficarolo, tombe 4 (fig. 3.4), déjà citée, en Italie ostrogothique (Bierbrauer et al. 1993, 322-324 ; I Goti 1994,
Cat. n°. III.21, fig. III.61) et dans la région du Danube
moyen, quelque part en «Hongrie » (Csallány 1961,
Taf. CCIII.7), ainsi que dans la nécropole de CsongrádKettoshalöm (fig. 3.8), sur le territoire des Gépides en
Hongrie orientale (Csallány 1961, Taf. CCXI.14,15 ;
Germanen 1987, 233, V.28), à Bojná (fig. 3.10), dans un
habitat fortifié sur le territoire de la Slovaquie (Pieta
2006, obr. 3.1), à Stehlčeves (une paire), dans une tombe
(fig. 3.11), sur le territoire de la Bohême (Svoboda 1975,
obr. 10) ou encore de Stössen, tombe 69 (fig. 3.9), en
Thuringe (Bierbrauer 1975, Taf. 70.5). Ces fibules,
datées de la deuxième moitié du Ve et du début du
VIe siècle (Bierbrauer et al. 1993, 322-324) sont les plus
proches de celle de Taradeau-Saint-Martin. Les fibules
digitées à pied losangique et tête semi-circulaire portant
un décor végétal en volutes, le type Ficarolo y compris,
remontent au type danubien dit de Sokolnice (voir
supra) (3). Les pièces provenant de la tombe isolée à
En Espagne wisigothique le type de Castiltierra représente lui aussi une dérivée de celui de Sokolnice (Ebel-Zeperzauer 2000, 26).
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 39
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
Dabronc-Otvöspuszta (fig. 3.7), en Hongrie occidentale,
représentent peut-être la version intermédiaire entre les
types Sokolnice et Ficarolo. En tout cas ces agrafes, bien
travaillées, sont le prototype direct des fibules du type
Ficarolo. Il est significatif que, à part les fibules, la
sépulture d’Otvöspuszta contenait une grande plaqueboucle (fig. 2.11,12) illustrant les éléments du costume
germanique oriental (Bierbrauer 1975, Abb. 6.1,2 ; I Goti
1994, III.7).
LES FIBULES DU TYPE D’UDINE-PLANIS
(fig. 4.1,2,4).
Souyri (Aveyron).
Ces fibules (voir à leur propos Bierbrauer 1975,
89-91) se caractérisent par le décor végétal longitudinal
symétrique du pied, bordant la ligne verticale médiane,
qui sépare le pied en deux champs horizontaux. La tête
semi-circulaire porte elle aussi le décor végétal stylisé.
Les doigts cantonnant la tête et les protubérances circulaires figurant sur le pied sont parfois ornés des grenats.
Le pied se termine par le masque zoomorphe. L’anse est
divisée en deux champs par la ligne longitudinale en
relief. Enfin, les bordures du pied et de la tête, ainsi que
l’anse, portent parfois le décor en petits triangles poinçonnés, appelé « la dent du loup ». Selon V. Bierbrauer
les fibules du type Udine-Planis (groupe I des fibules
italo-ostrogothiques) appartiennent à la fin du Ve premier tiers du VIe siècles (Bierbrauer 1975, 113). Le
mobilier funéraire de la tombe de Lörrach, en Allemagne
du Sud, est très important pour la datation de fibules du
type Udine-Planis, car il contenait, à part l’agrafe en
question, une épingle à décor aviforme, du type 314
selon la typologie de R. Legoux, P. Périn et F. Vallet,
datée de 440/450 à 520/530 (Legoux, Périn, Vallet 2009,
N° 314) et une bague analogue à celle d’une sépulture
« princière » à Bakodpuszta, en Hongrie, datée du
milieu-troisième quart du Ve siècle (Vallet, Kazanski, De
Pirey 1995, 117). D’autre part, une paire des fibules du
type Udine-Planis a été mise au jour dans la tombe 270
de la nécropole normande de Saint-Martin-de-Fontenay
(fig. 4.4), avec deux fibules cloisonnées (Pilet 1994,
pl. 34.1), typiques de l’époque mérovingienne ancienne,
surtout de la période allant de 470/480 à 560/570
(Legoux, Périn, Vallet 2009, N° 207).
Une fibule dérivée de ce type a été découverte à
Souyri (Aveyron, aujourd’hui la commune de Salles-laSources) (fig. 1.2), à en juger d’après le dessin assez
schématique et la description de G. Barrière-Flavy
(fig. 4.1). Ses doigts sont ornés des grenats (BarrièreFlavy 1892, 140, pl. III.2).
En dehors du Sud-Ouest, les fibules du type d’UdinePlanis ont été mises au jour en Gaule de l’Est, à Brochon
(fig. 4.2) (Vallet, Kazanski, de Pirey 1995, 117, fig. 4.1),
et au Nord, à Saint-Martin-de-Fontenay (voir supra) (fig.
4
4.4). Ces fibules, très probablement dérivées du même
type d’Udine-Planis sont attestées en Espagne wisigothique, notamment à El Carpio de Tajo, tombe 194
(Ripoll López, 1994, fig. 16) et à Castilltierra, tombe 449
(Arias Sánchez, Balmaseda Muncharaz 2015, 990, 991)
(fig. 4.5). Les versions différentes des fibules du type
Udine-Planis se diffusent dans les Balkans orientales et
en Crimée, dans les zones d’installation des Goths
(Kazanski 1996, 330 ; Gavritukhin, Kazanski 2010,
114-116 ; Dumanov 2012, 120-122). D’après les ensembles clos, tels que Kertch-Dolgaia Skala, tombe de 1875,
Kertch, tombe 78 de 1907, Kertch 180 de 1904, la date
des fibules du type Udine-Planis dans la région pontique
englobe tout le VIe siècle (Kazanski 1996, 330 ;
Gavritukhin, Kazanski 2010, 100, 101, 116). La diffusion géographique de différentes versions du type UdinePlanis suggère son origine du milieu gothique du
royaume d’Italie et des marges pontiques de l’Empire
d’Orient. Une paire de fibules venant de Tasov (fig. 4.3),
au pays nord-danubien, datée de la fin du Ve-début du
VIe siècles, représente une version peut-être la plus
ancienne de ce groupe de fibules (Tejral 2002, 327, 328,
Abb. 9.3,4 ; Tejral 2008, 267, Abb. 12.6).
LES FIBULES DU TYPE D’ESTEBANVELA
(fig. 4.6-8).
Sérignan (Hérault), Saint-Affrique (Aveyron).
Ce sont les agrafes à cinq doigts et à décor en zigzag
longitudinal symétrique sur le pied, de deux côtes de la
ligne médiane verticale hachée. La tête porte le décor
géométrique. Les bordures du pied et de la tête sont
ornées des lignes hachées. Le pied possède quatre protubérances circulaires et se termine par le masque
zoomorphe stylisé. Les doigts, les protubérances et le
masque portent les grenats. L’anse est divisée en deux
champs par une ligne longitudinale en relief. Selon W.
Ebel-Zeperzauer c’est un type hispano-wisigothique
d’Estebanevela (Ebel-Zeperzauer 2000, 23, 24), représenté en Espagne à Estebanvela et Madrona, tombe 238
(fig. 4.8). À part les fibules citées par W. EbelZeperzauer (4), il faut y ajouter une paire de fibules
provenant de la tombe 51 de la nécropole de Hereira de
Pisuerga. La sépulture contenait aussi une grande
plaque-boucle de ceinture (Morillo Cedrán 1999,
Photo 2).
Une pièce de ce type, en bronze, de longueur de
11,7 cm vient de Sérignan (Hérault) (fig. 1.3 ; 4.6)
(Landes 1988, 185, n° 10, Hernandez, Raynaud 2005,
fig. 1.B). Une autre fibule, en bronze (fig. 4.7), a été mise
au jour à Saint-Affrique (Aveyron) (fig. 1.4), dans la
cimetière de la Montagne des Anglais, dans une nécropole avec des tombes en dalles des pierres, disposées
selon l’axe Est-Ouest (Cartailhac 1902, pl. 3.2).
Mais à mon avis la liste des fibules, citées par W. Ebel-Zeperzauer est hétéroclite, car elle réunie les fibules au décor végétal, comme Estagel
(fig. 5.2,3) et à celui géométrique, en zigzag sur le pied (Sérignan, Saint-Affrique, Madrona) (fig. 4.6-8).
39
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 40
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Comme parallèle extérieur on peut citer une fibule
venant de la collection Diergardt, provenant du Nord de
la mer Noire (« Kertch » - collections Massonneau et
Diergardt) (fig. 4.9). Elle a été attribuée par J. Werner à
la forme locale (südrussiche) des fibules d’Udine-Planis
(voir supra.) et par conséquent datée de la première
moitié du VIe siècle (Werner 1961, 30, Taf. 27, N° 110).
Il faut noter que le décor en zigzag sur le pied est
attesté relativement tôt sur les fibules, dès le milieu du
Ve siècle, comme sur les exemplaires de Zemun dans la
région danubienne (Bierbrauer 1975, Taf. LXXVI.1,2 ;
Tejral 1997, 349, Abb. 23.17, 18). Il n’est pas exclu que
le décor en zigzag représente la version simplifiée des
motifs végétaux des fibules du type Udine-Planis.
LES FIBULES DU TYPE
D’ARCY-SAINTE-RESTITUE (fig. 5.1-5).
Larroque-Castayrols (Tarn),
Estagel (Pyrénées-Orientales).
Ce sont les fibules à cinq doigts, portant un décor à
quatre volutes dans la partie centrale du pied et à deux
volutes opposées sur la tête, parfois séparées par un
triangle imitant la taille biseautée. L’anse parfois est
décorée par plusieurs lignes longitudinales en relief. Le
pied est orné de six protubérances circulaires, parfois
incrustés de grenats. Le pied se termine par un masque
zoomorphe, la bordure de la fibule porte parfois le décor
«en dent du loup». Ces fibules, elles aussi, sont dérivées
du type danubien de Sokolnice (voir supra). Parmi les
prototypes directs on peut citer les fibules provenant
d’une tombe à Čukarica (Ostružnica), à Belgrade d’aujourd’hui. Cette sépulture contenait aussi deux fibules en
arbalète du type Smolin, datée du milieu du Ve siècle
(cf. L’Or des princes barbares 2000, n° 22.6; à propos de
la tombe princière de Smolin voir en détail : Tejral 1973,
25-53), deux petites copies du même type en arbalète, un
collier des perles et deux boucles d’oreille à polyèdre
vide (Tatić-Curić 1958; Bierbrauer 1975, Taf. 78)
(fig. 2.6-10).
Une fibule du type d’Arcy-Sainte-Restitue, assez
dégradée, provient de la nécropole de LarroqueCastayrols (Tarn) (fig. 1.5). Elle a été découverte durant
la prospection du champ où auparavant les agriculteurs
avaient mis au jour une grande plaque-boucle à plaque
rectangulaire de type « wisigothique » et une perle en
ambre (Cubaynes, Lasserre 1966, 310, pl. 98). La fibule
est en alliage cuivreux, à surface dorée, avec les restes
d’ardillon en fer (5) (fig. 5.1).
Une autre fibule dérivée de ce type a été mise au jour
en 1869 à Estagel (Pyrénées-Orientales) (fig. 1.6), dans
une tombe, sur la poitrine du défunt. Elle est ornée des
grenats (Barrière-Flavy 1892, 134, pl. III.1) (fig. 5.3).
5
6
40
Une autre pièce similaire provient de la tombe 8 de la
même nécropole en 1935 (Lantier 1943, 158, fig. 3. T.8)
(fig. 5.2). Cette fibule est en bronze, de la longueur de
10,1 cm et porte le décor en deux volutes sur la tête et en
quatre volutes sur le pied (Landes 1988 , n° 17; I Goti
1994, fig. IV.42). Elle est attribuée par W. EbelZeperzauer au type Estebanvela (voir infra), cependant
le décor du pied est différent - il comporte les éléments
végétaux (Ebel-Zeperzauer 2000, 23).
Mais deux exemplaires les plus travaillés de ce type
viennent de la Gaule du Nord, de la nécropole d’ArcySainte-Restitue, tombe 1727 (Aisne) (fig. 5.4). Elles sont
en alliage cuivreux, de 10,4 cm de longueur (Koch 1998,
601, N° 144, Taf. 35.4,5) (6). D’autre part un pied de la
fibule, très vraisemblablement appartenant au même
type Arcy-Sainte-Restitue, vient de la Seine-Maritime
(Kühn 1998, N° 618, 660, Taf. 35.5 ; Lorren 2001,
pl. II.2) (fig. 5.5). En ce qui concerne leur date, ces
fibules, compte tenu leur ressemblance morphologique
avec les agrafes du type Envermeu (voir infra), doivent
avoir à peu près la même chronologie, c’est-à-dire le
dernier tiers du Ve-premier tiers du VIe siècles.
LES FIBULES DU TYPE D’ENVERMEU
(fig. 5.7-9,11).
Toulouse, Saint-Affrique (Aveyron),
Monteils (Tarn-et-Garonne).
Il s’agit des fibules qui ressemblent au type d’ArcySainte-Restitue, mais leur décor est différent. Elles
portent le décor radial sur la tête et celui quadrillé sur le
pied (Koch 1998, 236-238, Taf. 35.6, Karte 18). Dans un
cas (Monteils, voir infra.), la tête des agrafes est décorée
de deux têtes aviformes ornées des grenats. L’anse est
divisée en deux champs par une ligne longitudinale en
relief. Ces fibules ont été mises au jour dans le SudOuest de la Gaule, donc dans la zone wisigothique, à
Toulouse (Barrière-Flavy 1892, pl. 3.2) (fig. 1.7 ; 5.9),
ainsi qu’à Saint-Affrique (Aveyron), dans le cimetière de
la Montagne des Anglais, déjà citée (Cartailhac 1902,
pl. 3.1). Cette fibule est en bronze (fig. 5.8). Enfin deux
fibules de ce type sont découvertes dans la nécropole de
Monteils (Tarn-et-Garonne) (fig. 1.8). Il s’agit d’une
tombe contenant aussi deux boucles d’oreille à pendentif
polyédrique, près du crâne et une plaque-boucle de ceinture, ornée de grenats (Lapart, Neveu 1987, 50, pl. 1).
Les fibules sont en alliage cuivreux, à surface dorée, de
15,5 cm de longueur, ornées des pierres ou des verres
rouges (fig. 5.11). Ce type est également attesté en
Espagne wisigothique (Duratón ou Castiltierra) (I Goti
1994, fig. IV.5), mais ici les fibules portent sur la tête un
décor végétal (fig. 5.6). D’autre part les fibules à décor
quadrillé sur le pied et celui en volutes sur la tête sont
La fibule est publiée sans échelle et sa taille n’est pas précisée dans le texte de la publication de 1966.
On pourrait supposer donc, que ce type de fibules, assurément de la tradition germanique orientale, se forme d’abord en Gaule du Nord, ensuite ces
dérivées arrivent en Gaule du Sud - Ouest, sur le territoire wisigothique. Cependant le nombre très limité des découvertes ne nous permet pas de
confirmer ou infirmer une telle supposition.
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 41
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
connues en Italie, notamment à Tortona (Bierbrauer
1975, Taf. XLIV.1,2, LXIV.1,2). Mais d’autre part les
fibules italiennes, d’après leurs proportions sont plus
proches au type Mistřín (voir infra.).
En dehors de la zone wisigothique les fibules de ce
type ont été mises au jour à Envermeu (Seine-Maritime),
dans une tombe, découverte en 1850 (Flavigny 1975,
n° 632; Koch 1998, 622, N° 297, Taf. 35.6; Lorren 2001,
pl. 2.3). C’est une paire de fibules en bronze, plaquée
d’argent, de la longueur de 10,6 cm (fig. 5.7). Si les
informations sur la découverte d’Envermeu sont exactes
(Flavigny 1975, 153, 154), la fibule de la tombe de 1850
a été mise au jour avec un bracelet du type mérovingien 337, des pinces à épiler du type 320, une épingle
apparentée au type 314, les rivets du type 195 et une
boucle de ceinture du type 110 (selon Legoux, Périn,
Vallet 2009). La chronologie de ces objets correspond à
la période mérovingienne ancienne 1 (470/480 à
520/530).
Comme parallèle danubien lointain il faut citer une
paire des fibules provenant de la tombe 56 de la nécropole gépide de Szentes-Kökenzug (Csallány 1961,
Taf. XI.1,2). Ces fibules ont sur le pied seulement quatre
protuberances au lieu de six (fig. 5.10). Il faut souligner
la ressemblance morphologique des fibules appartenant
aux types d’Arcy-Sainte-Restitue et d’Envermeu, ce que
témoinge à la faveur de leurs origines communes.
LES FIBULES DU TYPE DE MISTŘÍN (fig. 6).
Les fibules de ce type (typologie selon Tejral 2002,
321-326, Abb. 7), à cinq ou à sept doigts, possèdent le
décor quadrillée sur le pied et celui à deux volutes opposées sur la tête, parfois séparées par un triangle en taille
biseautée. Le pied se termine par le masque zoomorphe.
L’anse est divisée en deux champs par une ligne longitudinale en relief. Deux fibules du type Mistřín ont été
découvertes dans une sépulture près de l’église de SaintPierre-des-Cuisines, à Toulouse (fig. 1.7). Ici, au chevet
de l’église, on a mis au jour deux inhumations « habillées » (Lequément 1986, fig. 15). La première tombe
contenait une grande plaque–boucle habituelle pour la
zone du royaume wisigothique, à plaque rectangulaire,
revêtue de feuille d’argent (voir à son propos Stutz 2000,
35-37). Une autre inhumation, en pleine terre, a livré
deux fibules digitées en bronze, de 8,6 et 8,7 cm de
longueur (fig. 6.1). Ces dernières ont été à juste titre
identifiées comme appartenant au type danubien de
Mistřín (Stutz 2000, note 23; Bach et al. 2002, 535,
fig. 215.16).
En Gaule on connaît encore deux fibules représentant
les dérivées de ce type. La première, en argent doré, de
7,7 cm de longueur, provient de Fère-en-Tardenois
7
(Aisne) (Caillet 1985, n° 96) (fig. 6.2), l’autre, avec sept
doigts, en argent doré, de la longueur de 7,7 cm, provient
de la nécropole mérovingienne d’Arcy-Sainte-Restitue,
tombe 2408 (Koch 1998, 603, N° 154, Taf. 36.8; Tejral
2002, 322) (fig. 6.3).
Les fibules du type de Mistřín sont bien attestées
dans les pays nord-danubiens de l’époque « prélombarde » (avant l’arrivée des Lombards sur le Danube
moyen vers 512), c’est-à-dire de la deuxième moitié du
Ve siècle, plutôt des dernières décennies du Ve siècle. On
peut citer les découvertes à Mistřín (fig. 6.4), à Schletz,
tombe 10 (fig. 6.5), à Vienne-Salvator Gasse (fig. 6.8),
et, en dehors de la région au Nord du Danube, à
Altenerding, tombes 272 et 554, en Bavière (fig. 6.7).
Les découvertes à Schletz et à Vienne-Salvator Gasse
montrent que ces fibules ont été portées selon la mode
féminine des Germains orientaux, sur les épaules (Martin
2002, 214, Abb. 14; Tejral 2002, 321-326, Abb. 7). En
même temps ces agrafes ont été mises au jour en Hongrie
orientale, à l’est du Danube, c’est-à-dire sur le territoire
du royaume gépide : à Bókeny-Mindszent (Hampel
1905, Taf. 56.10), à Magyartés (fig. 6.9),
Hódmezővásárhely-Gorsza (Csallány 1961, Taf.
CIX.1-3 ; CCXXXIII.8,12) et à Tarnamera (Bóna, Nagy
2002, Taf. 56.1) (fig. 6.6). Les dérivées du type Mistřín
sont également connues en Italie (Bierbrauer 1975,
Taf. LXXXII.3) (7).
Les fibules de tradition danubienne représentent le
témoignage archéologique des contacts entre la Gaule du
Sud et les royaumes germaniques orientaux du Danube
moyen et d’Italie, au même titre que la plaque-boucle
gépide à tête d’aigle et les petites fibules ansées, découvertes en Gaule méridionale (Kazanski 2010 ; Kazanski
2013). Il faut souligner que ces contacts, à part les relations avec l’Italie ostrogothique, sont peu attestés par les
auteurs anciens. Cela n’est pas étonnant, car le matériel
archéologique et les sources écrites montrent l’histoire
d’une façon différente. C’est d’autant plus exact pour les
« classes moyennes » des anciennes sociétés, car les
témoignages écrits de la fin de l’Antiquité et du début du
Moyen Âge, on le sait, concernent avant tout les élites
dirigeantes et guerrières et les faits d’histoire politique,
militaire et dynastique. Or, les fibules digitées de petite
et moyenne taille chez les Germains orientaux sont avant
tout l’apanage du costume féminin des « classes
moyennes » (Ambroz 1968, 22 ; Bierbrauer 1989,
152-155 ; Kazanski 2013, 55, 56). Compte tenu le caractère « ethnographique » du costume féminin dans les
sociétés traditionnelles (Périn, Kazanski 2006, 191, 192),
on peut conclure que l’apparition de ces modèles est liée
avec la migration de petits groupes ou et même les
personnes isolées d’origine (ou de tradition culturelle ?)
germanique orientale.
Il existe en Gaule, plus au Nord, un autre type des fibules, dit Hahnheim, qui est également dérivée de celles de Mistřín, répandu en Gaule du Nord,
sur l’île britannique et en Germanie. Les fibules du type Hahnheim se distinguent par le décor de tête plus dégradé, en forme de trois triangles. Ce
type est daté de la première moitié-milieu du VIe siècle (Koch 1998, 203-205, Karte 16, Taf. 29.5-10, 30, 31.1-5; Kazanski 2002, 21, 22). Enfin,
encore un groupe des fibules digitées, qui remonte peut-être au même prototype Mistřín, est celui de Cutry/Naumburg/Kolleda, attesté sporadiquement
en Gaule du Nord, notamment à Cutry, tombe 919 et à Monceau-le-Neuf-en-Faucouzy (Koch 1998, Taf. 28.2,3), mais surtout en Thuringe (Koch 1998,
188-191, Karte 15 ; Bemmann 2008, 184, Abb. 38).
41
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 42
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Fig. 2 : Les fibules digitées danubiennes du milieu -deuxième moitié du Ve siècle. 1 : Cifer-Pác ; 2, 4 : Sokolnice ;
3 : Bernhardsthal-Aulüssen; 5 : Tasov ; 6-10 : Belgrade-Ostružnica ; 11-12: Dabronc-Ötvöspuszta. 1-5 : d’après Tejral 2002,
Abb. 6.1,2,7-9 ; 6-10 : d’après Татиħ-Ђуриħ 1958, sl. 1-4 ; 11,12 : d’après Bierbrauer 1975, Abb. 6. 7 : sans échelle.
42
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 43
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
Fig. 3 : Les fibules du type Ficarolo et leur prototype possible (7). 1 : Taradeau-Saint-Martin ; 2 : Brochon ; 3 : Chaussin ;
4 : Ficarolo ; 5 : Bâle-Kleinhüningen, tombe 75 ; 6 : Bâle-Gotterbarmweg, tombe 22 ; 7 : Dabronc-Ötvöspuszta ; 8 : CsongrádKettoshalöm ; 9 : Stössen, tombe 69 ; 10 : Bojná ; 11 : Stehlčeves. 1 : d’après Boyer 1971, 153, 154, fig. 6.3 ; 2: d’après Vallet,
Kazanski, De Pirey 1995, fig. 4.5; 3 : d’après Koch 1998, Taf. 34.2 ; 4: d’après I Goti 1994, fig. III.61; 5 : d’après GieslerMüller 1992, Taf. 67.3,4 ; 6 : d’après Vogt 1930, Taf. 10.XXII.3,4; 7 : d’après I Goti 1994, fig. III.27 ; 8 : d’après Csallány
1961, Taf. CCXI.14,15; 9 : d’après Bierbrauer 1975, Taf. 70.5 ; 10 : d’après Pieta 2006, obr. 3.1 ; 11 : d’après Svoboda 1975,
obr. 10. 6,8,11 : sans échelle.
43
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 44
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Fig. 4 : Les fibules du type Udine-Planis (1,2,4), leurs prototypes possibles (3), leurs dérivées (5) et les fibules du type Estabanvela
(6-9). 1 : Souyri ; 2 : Brochon ; 3 : Tasov; 4 : Saint-Martin-de-Fontenay, tombe 270 ; 5 : Castiltierra, tombe 449; 6 : Sauvian ; 7
: Saint-Affrique ; 8 : Madrona, tombe 238 ; 9 : « Kertch », collections Massoneau-Diergardt. 1 : d’après Barrière-Flavy 1892, pl.
III.2 ; 2 : d’après Vallet, Kazanski, De Pirey 1995, 117, 4.1 ; 3 : d’après Bierbrauer 1975, Taf. 75.1; 4 : d’après Pilet 1994, fig. 51
; 5 : d’après Arias Sánchez, Balmaseda Muncharaz 2015, 990, 991 ; 6 : d’après Hernandez, Raynaud 2005, fig. 1.B; 7 : d’après
Cartailhac 1902, pl. 3.2; 8 : d’après Ebel-Zeperzauer 2000, Taf. 19.44; 9 : d’après Werner 1961, 30, Taf. 27, N° 110. 1, 7, 8 : sans
échelle.
44
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 45
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
Fig. 5 : Les fibules des types Arcy-Sainte-Restitue (1-5) et Envermeu (7-9,11) et leurs parallèles (6, 10). 1 : Larroque-Castayrols;
2 : Estagel, tombe 8; 3 : Estagel, tombe de 1869; 4 : Arcy-Sainte-Restitue, tombe 1727 ; 5 : Seine-Maritime ; 6 : Duratón ou
Castiltierra ; 7 : Envermeu ; 8 : Saint-Affrique ; 9 : Toulous e; 10 : Szentes-Kökenzug ; 11 : Monteils . 1 : d’après Cubaynes,
Lasserre 1966, pl. 98 ; 2 : d’après Lantier 1943, fig. 3. T.8; 3 : d’après Barrière-Flavy 1892, pl. III.1; 4 : d’après Koch 1998,
Taf. 35.4,5; 5 : d’après Lorren 2001, pl. II.2; 6 : d’après I Goti 1994, fig. IV.5; 7 : d’après Lorren 2001, pl. 2.3; 8 : d’après
Cartailhac 1902, pl. 3.1; 9 : d’après Barrière-Flavy 1892, pl. 3.2; 10 : d’après Csallány 1961, Taf. XI.1,2 ; 11 : d’après Lapart,
Neveu 1987, pl. 1. 1, 3, 8, 9, 10 : sans échelle.
45
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 46
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Fig. 6 : Les fibules du type Mistřín. 1 : Saint-Pierre-des-Cuisines, Toulouse ; 2 : Fère-en-Tardenois; 3 : Arcy-Sainte-Restitue, tombe
2408 ; 4 : Mistřín ; 5 : Schletz, tombe 10; 6 : Tarnamera ; 7 : Altenerding, tombes 554 et 272 ; 8 : Vienne-Salvatorgasse, tombe
S2 ; 9 : Magyartés. 1 : d’après Bach et alii 2002, 535, fig. 215.16; 2 : d’après Caillet 1985, n° 96; 3 : d’après Koch 1998, Taf.
36.8; 4,5,7,8 : d’après Tejral 2002, Abb. 7; 6 : d’après Bóna, Nagy 2002, Taf. 56.1; 9 :d’après Csallány 1961, Taf. CIX. 2. 9 :
sans échelle.
46
02 KAZANSKI 18B_Mise en page 1 18/12/2018 11:10 Page 47
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
BIBLIOGRAPHIE
Ambroz 1968 : АМБРОЗ (А.К.), Дунайские
элементы в раннесредневековой культуре Крыма
(VI-VII вв.). Краткие Сообщения Института
Археологии, N° 113, 1968, p. 10-23.
Arias Sánchez, Balmaseda Muncharaz 2015 : ARIAS
SÁNCHEZ (I.), BALMASEDA MUNCHARAZ (L.J.),
La necrópolis de época visigoda de Castiltierra
(Segovia) Excavaciones dirigidas por E. Camps y J. M.ª
de Navascués, 1932-1935. Materiales conservados en
el Museo Arqueológico Nacional. Madrid / Museo
Arqueológico Nacional, 2015, 1130 p.
Bach et al. 2002 : BACH (S.), BOUDARTCHOUK (J.L.), CAZES (J.-P.), RIFA (P.), STUTZ (F.), Le mobilier funéraire, témoin d’influences culturelles et
d’une possible présence germaniques, in :
PAILLER (J.-M.), éd., Tolosa. Nouvelles recherches
sur Toulouse et son territoire dans l’Antiquité.
Rome / Ecole française de Rome, 2002, p. 533-543.
Barrière-Flavy 1892 : BARRIÈRE-FLAVY (G.), Étude
sur les sépultures barbares du Midi et de l’Ouest de
la France. Industrie wisigothique. Toulouse-Paris / P.
Ed. Privat, E. Leroux, 1892, 240 p.
Bemmann 2008 : BEMMANN (J.), Mitteldeutschland
im 5. Jahrhèndert -Eine Zwischenstation auf dem
Weg der Langobarden in den mittleren Donauraum?,
in: BEMMANNN (J.), SCHMAUDER (M.), éd.,
Kulturwandel in Mitteleuropa. LangobardenAwaren-Slawen. Bonn / Dr. Rudolf Habelt GhbH,
2008, p. 145-227.
Bierbrauer 1975 : BIERBRAUER (V.), Die ostgotischen
Grab- und Schatzfunde in Itlaien. Spolète / Centro
Italiano di Studi sull’Alto Medioevo, 1975, 378 p.
Bierbrauer 1989 : BIERBRAUER (V.), Bronzene
Bügelfibeln des 5. Jahrhunderts aus Südosteuropa.
Jahresschrift für Mitteldeutsche Vorgeschichte,
vol. 72, 1989, p. 141–160.
Bierbrauer et al. 1993 : BIERBRAUER (V.),
BÜSING (V.), BÜSING (H.), Die Dame von
Ficarolo. Archeologia Medievale, vol. 20, 1993, p.
303-332.
Bóna, Nagy 2002 : BÓNA (I.), NAGY (M.), Gepidische
Gräberfelder am Theissgebiet I. Budapest /Magyar
Nemzeti Múzeum, 2002, 388 p.
Boyer 1971 : BOYER (R.), Pièces de mobilier funéraire
du Haut Moyen Àge découvertes dans le Var. Revue
des études ligures, vol. 37, 1971, p. 148-154.
Caillet 1985 : CAILLET (J.-P.), L’antiquité tardive, le
haut moyen age et Byzance au Musée Cluny. Paris /
Réunion des musées nationaux, 1985, 272 p.
Cartailhac 1902 : CARTAILHAC (E.), Le cimetière
barbare de Saint-Affrique (Aveyron). Bulletin de la
Société Archéologique du Midi, vol. 29/IV, 1902,
p. 35-37.
Cazes 1987 : CAZES (Q.), Toulouse, Saint-Pierre-desCuisines, in : Dix ans de recherches archéologiques
en Midi-Pyrénées. Toulouse / Musée Saint-Raymond,
1987, p. 145-147.
Csállany 1961 : CSÁLLANY (G.), Archäologische
Denkmäler der Gepiden in Mitteldonaubecken
(454-568 u. Z.). Budapest: Verlag der Ungarischen
Akademie der Wissenschaften, 1961, 406 p.
Cubaynes, Lasserre 1966 : CUBAYNES (R.),
LASSERRE (F.), Le cimetière wisigothique de
Larroque-Gestayrols (Tarn). Ogam, vol. 18, 1966,
p. 305-310.
Dumanov 2012 : ДУМАНОВ (Б.), Долнодунавските
готски паметнице, украсени с kerbschnitt. Фибули.
Селищна Археология, vol. VII, 2012, p. 112-151.
Ebel-Zeperzauer 2000 : EBEL-ZEPERZAUER (W.),
Studien zur Archäologie der Westgoten von 5.-7.
Jh. n. Chr. Mainz / Phillipp von Zabern, 2000, 408 p.
Flavigny 1975 : FLAVIGNY (L.), L’abbé Cochet et l’archéologie mérovingienne, in : La Normandie souterraine. II. L’abbé Cochet archéologue. Rouen / Musée
départemental des antiquités, 1975, p. 135-190.
Gavritukhin, Kazanski 2010 : GAVRITUKHIN (I.),
KAZANSKI (M.), Bosporus, the Tetraxite Goths and
the Northern Caucasus Region during the Second
Half of the Fifth and the Sixth Centuries, in:
Curta (F.), éd., Neglected Barbarians. Turnhout
/Brepols, 2010, p. 83-136.
Giesler-Müller 1992 : GIESLER-MÜLLER (U.), Das
frühmittelalterliche Gräberfeld von BaselKleinhüningen. Derendingen-Solothurn / Habegger
Verlag, 1992, 336 p.
I Goti 1994 : I Goti. Milan / Electa Lombardia, 1994,
400 p.
Hampel 1905 : HAMPEL (J.), Alterthümer des Frühen
Mittelalters in Ungarn. Bd. III. Braunshweig / Verlag
von Friedrich Vieweg und Sohn, 1905, 904 p.
Hernandez, Raynaud 2005 : HERNANDEZ (J.),
RAYNAUD (C.), La Septimanie du Ve au
VIIIe siècle : archéologie du changement culturel, in :
DELESTRE (X.), PERIN (P.), KAZANSKI (M.),
éd., La Méditerranée et le monde mérovingien. Aixen-Provence / Association Provence Archéologie,
2005, p. 177-187.
Kazanski 1996 : KAZANSKI (M.), Les Germains orientaux au Nord de la mer Noire pendant la seconde
moitié du Ve s. et au VIe s. Материалы по
Археологии, Истори и Этнографии Таврии, vol. 5,
1996, p. 324-337, 567-581.
Kazanski 1997 : KAZANSKI (M.), La Gaule et le
Danube à l’époque des Grandes Migrations, in:
TEJRAL(J.), FRIESINGER (H.), KAZANSKI (M.),
éd., Neue Beiträge zur Erforschung der Spätantike
im mittleren Donauraum. Brno / Archeologický
Ústav Akademie Věd České Republiky, 1997,
p. 285-319.
Kazanski 2002 : KAZANSKI (M.), La nécropole galloromaine et mérovingienne de Breny (Aisne). D’après
les collections et les archives du Musée des
Antiquités Nationales (Europe médiévale, 4).
Montagnac / Editions Monique Mergoil, 2002, 270 p.
47
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 48
ARCHÉOLOGIE DU MIDI MÉDIÉVAL – TOME 34 – 2016
Kazanski 2010 : KAZANSKI (M.), Les Gépides en
Gaule, in : MĂGUREANU (A.), GÁLL (E.), éd.,
Între stepă şi Imperiu. Studii în onoarea lui Radu
Harhoiu. Bucureşti / Renaissance, 2010 (2011),
p. 127-140.
Kazanski 2013 : KAZANSKI (M.), Les petites fibules
ansées de tradition germanique en Gaule méridionale
au Ve siècle. Bulletin de liaison de l’Association
française d’archéologie mérovingienne, N° 34, 2013,
p. 54-59.
Köch 1998 : KÖCH (A.), Bügelfibeln der
Merowingerzeit im westlichen Frankenreich. Mainz /
Verlag der Römisch-Germanischen Zentralmuseums,
1998, 750 p.
Landes 1988 : LANDES (C.), éd., Gaule mérovingienne
et monde méditerranéen. Les derniers Romains en
Septimanie, IVe-VIIIe siècles. Lattes / Imago, 1988.,
234 p.
Lantier 1943 : LANTIER (M.R.), Le cimetière wisigothique d’Estagel (Fouilles de 1935 et 1936). Gallia,
vol. 1/1, 1943, p. 153-188.
Lapart, Neveu 1987 : LAPART (J.), NEVEU (J.),
Objets mérovingiens de Monteils près de Caussade
(Tarn-et-Garonne), in : Montauban et les anciens
pays de Tarn-et-Garonne. Actes du XLIe Congrès
d’études Régionales. Montauban / Société archéologique de Tarn et Garonne, 1987, p. 49-56.
Legoux, Périn, Vallet 2009 : LEGOUX (R.), PÉRIN (P.),
VALLET (F.), Chronologie normalisée du mobilier
funéraire mérovingien entre Manche et Lorraine.
Saint-Germain-en-Laye / Association française d’archéologie mérovingienne, 2009, 66 p.
Lequément 1986 : LEQUÉMENT (R.), Midi-Pyrénées.
Toulouse.
Saint-Pierre-des-Cuisines.
Gallia,
vol. 44/2, 1986, p. 321.
Lorren 2001 : LORREN (C.), Fibules et plaquesboucles à l’époque mérovingienne en Normandie.
Paris / Association française d’archéologie mérovingienne, 2001, 554 p.
Martin 2002 : MARTIN (M.), „Mixti Alamannis
Suevi“? Der Beitrag der alamannischen Gräberfelder
am Basler Rheinknie, in : TEJRAL (J.), éd.,
Probleme der frühen Merowingerzeit im
Mitteldonauraum. Brno / Archeologický Ústav
Akademie Věd České Republiky, 2002, p. 195-223.
Menke 1986 : MENKE (M.), Archäologische Befunde
zu Ostgoten des 5. Jahrhunderts in der zone nordwärts der Alpen, in: KMIECIŃSKI (J.), éd.,
Peregrinatio Gothica (Archaeologia Baltica VII).
Lódz / Katerdra archeologii Uniwersitetu
Lódzskiego, 1986, p. 239-282.
Morillo Cedrán 1999 : MORILLO CEDRÁN (A.),
Nueva aproximación a los ajuares metálleicos de la
necrópolis visigoda de Herrera de Pisuerga
(Palencia), in : I Curso de cultura medieval. Actas.
Aguilas de Campeo, 1999, p. 233-251.
L’Or des princes barbares 2000 : L’Or des princes
barbares. Du Caucase à la Gaule Ve siècle après J.C. Paris / Réunion des Musées nationaux, 2000,
224 p.
48
Périn, Kazanski 2006 : PÉRIN (P.), KAZANSKI (M.),
Les tombes féminines à costume « étranger » dans les
nécropoles mérovingiennes de Gaule, in : LÓPEZ
QUIROGA (J.), MARTÍNEZ TEJERA (A.M.),
MORÍN DE PABLOS (J.), éd., Gallia e Hispania en
el contexto de la presencia ‘germánica’ (ss.V–VII).
Balance y Perspectivas. Actas de la Mesa Redonda
hispano-francesca celebrada en la Universidad
Autónoma de Madrid (UAM) y Museo Arqueológico
Regional de la Comunidad de Madrid. Oxford /
BAR, 2006, p. 191-212.
Pieta 2006 : PIETA (K.), Hradiská Bojná II a Bojná III,
in : Pieta K., Ruttkay A., Ruttkay M. (eds), Bojná.
Hospodárske a politické centrum Nitranskeho
kniažatstva. Nitra / Archeologický ústav SAV, 2006,
p. 173-190.
Pilet 1004 : PILET (C.), éd., La nécropole de Saint-Martinde-Fontenay (Calvados). Paris / CNRS Editions, 1994,
552 p.
Ripoll López 1994 : RIPOLL LÓPEZ (G.), La necrópolis visigoda de El Carpio del Tajo. Una nueva
lectura a partir de la topocronología y los adornos
personales. Butlletín de la Reial Académia Catalana
de Belles Arts de Sant Jordi, vol. VII-VIII, 1994,
p. 187-250.
von Rummel 2007 : VON RUMMEL (P.), Habitus
barbarus. Kleidung und Repräsentation spätantiker
Eliten im 4. und 5. Jahrhundert. Belin-New York /
Wlater de Gruyter, 2007, 482 p.
Stutz 2000 : STUTZ (F.), L’inhumation habillée à
l’époque mérovingienne au Sud de la Loire.
Mémoires de la société archéologique du Midi de la
France, vol. 60, 2000, p. 33-47.
Svoboda 1975 : SVOBODA (B.), Dva hroby z doby
stěhování národů ve Stehelčevsi u Slaného. Památky
archeologické 116 (1), vol. 1975, p. 133-151.
Tatić-Curić 1958 : ТАТИĦ-ЂУРИĦ (М.), Готски гроб
из Остружнице. Зборник Радова Народног музеја
у Београду, vol. 1, 1958, p. 161-185.
Tejral 1973 : TEJRAL (J.), Mähren im 5. Jahrhundert.
Prague / Academia,1973, 88 p.
Tejral 1976 : TEJRAL (J.), Grundzüge der Völkerwanderungszeit in Mähren. Prague / Academia,
1976, 122 p.
Tejral 1997 : TEJRAL (J.), Neue Aspekte der frühvölkerwanderungszeitlichen Chronologie im Mitteldonauraum,
in: TEJRAL (J.), FRIESINGER (H.), KAZANSKI (M.),
éd., Neue Beiträge zur Erforschung der Spätantike im
mittleren Donauraum. Brno / Archeologický Ústav
Akademie Věd České Republiky, 1997, p. 321-392.
Tejral 1997a : TEJRAL (J.), Les fédérés de l’Empire et
la formation des royaumes barbares dans la région du
Danube moyen à la lumière des données archéologiques. Antiquités Nationales, vol. 29, 1997a,
p. 137-166.
02 KAZANSKI 18B_Mise en page 1 11/12/2018 15:01 Page 49
FIBULES DIGITÉES DE TRADITION « DANUBIENNE » DE L’ÉPOQUE DES GRANDES MIGRATIONS, DÉCOUVERTES EN GAULE DU SUD
Tejral 2002 : TEJRAL (J.), Beiträge zur Chronologie
des langobardischen Fundstoffes nördlich der mittleren Donau, in : TEJRAL (J.), éd., Probleme der
frühen Merowingerzeit im Mitteldonauraum. Brno /
Archeologický Ústav Akademie Věd České
Republiky, 2002, p. 313-358.
Vallet, Kazanski, De Pirey 1995 : VALLET (F.),
KAZANSKI (M.), DE PIREY (D.), Éléments étrangers en Bourgogne dans la deuxième moitié du Ve
siècle, in : GAILLARD DE SEMAINVILLE (H.),
éd., Les Burgondes, apports de l’archéologie, Dijon /
Association pour la connaissance du Patrimoine de
Bourgogne, 1995, p. 111-127.
Tejral 2008 : TEJRAL (J.), Ein Abriss der frühmerowingerzeitlichen Entwicklung im mittleren Donauraum
bis zum Anfang des 6. Jahrhunderts, in:
BEMMANNN (J.), SCHMAUDER (M.), éd.,
Kulturwandel in Mitteleuropa. LangobardenAwaren-Slawen. Bonn / Dr. Rudolf Habelt GhbH,
2008, p. 249-283.
Vogt 1930 : VOGT (E.), Das alamannische Gräberfeld
am alten Gotterbarmweg in Basel. Anzeiger für
Schweizeirische Altetumskunde. N.F., N° 32, 1930,
p. 145-164.
Werner 1961 : WERNER (J.), Katalog der Sammlung
Diergardt (Völkerwanderungszeitliche Schmuck).
Band 1. Berlin: Verlag Gebr. Mann, 1961, 126 p.
49.
| 30,944
|
36/hal.archives-ouvertes.fr-hal-01612587-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,182
| 12,353
|
Marchandisation du travail et différenciation sociale en Sella Limba (Sierra Leone) de 1950 à nos jours
Augustin Palliere, doctorant AgroParisTech, UMR Prodig / Université Paris Ouest Nanterre La Défense, UMR LAVUE Jean-Luc Paul, Anthropologue UMR 8171 CEMAF / Université Antilles Guyane Hubert Cochet, Professeur AgroParisTech, UFR Agriculture Comparée et Développement Agricole, UMR PRODIG Frédéric Landy, Géographe, Université Paris Ouest Nanterre La Défense, UMR LAVUE
Résumé (Français) : En Sierra Leone, les migrations vers les zones diamantifères et le développement de cultures à vocation commerciale ont contribué à l'intégration croissante des paysanneries à l'économie nationale et mondiale. Sur la base d'une étude d'une petite région du nord du pays, la Sella Limba, nous décrivons comment la marchandisation des rapports sociaux de production et d'échanges a impliqué le détournement des rapports sociaux « traditionnels » fondés sur l'antériorité et l'éclatement des grands groupes domestiques en unités de plus petite taille à l'existence plus précaire. Mais, marginalisées par les importations massives à bas prix de riz, ces agricultures manuelles sont restées à très faible niveau de capital. Dans ce contexte, nous montrons comment la faiblesse de la productivité du travail limite les possibilités de différenciation sociale et économique durables. Les paysans combinent des rapports sociaux autant « modernes » que « traditionnels » pour développer des stratégies d'accumulation hybrides qui relèvent parfois plutôt de la simple survie. Résumé (Anglais) : In Sierra Leone, the migration to the diamond fields and the development of cash crops have contributed to the increasing integration of the peasantry in the national and global economy. Based on a study of a small northern chiefdom, the Sella Limba, we describe how the commodification of social relations of production and exchange involved the perversion of "traditional" social relations based the anteriority and finally the break-up of the large domestic groups into smaller units more precarious. But marginalized by massive cheap rice 1/27 imports, these manual agricultures remained at very low level of capital intensity. We look how low labor productivity limits the opportunities for sustainable social and economic differentiation. Farmers combine "modern" and "traditional" social relations and develop hybrid accumulation strategies sometimes coming close to mere survival.
1 Introduction
La « modernisation » des sociétés rurales africaines renvoie couramment, dans la littérature scientifique, aux dynamiques induites par la pénétration des rapports marchands : monétarisation de l'économie, déstructuration des structures lignagères, développement des migrations économiques, scolarisation des enfants Bernstein (2010) dans Class Dynamics of Agrarian Change défend l'idée qu'avec la marchandisation des produits agricoles les paysans devenus « petits producteurs de marchandises » sont soumis à une différenciation en « classes ». Si l'on constate en effet ce processus dans certaines régions où l'agriculture marchande s'est développée précocement, dans beaucoup d'autres régions, en Afrique notamment, aucune accumulation n'a accompagné la « modernisation ». Mises en concurrence sur le marché mondial avec des agricultures beaucoup plus performantes (Mazoyer & Roudart 1997 : 445-481), ces paysanneries ont été marginalisées & ont constituées une réserve de main d'oeuvre bon marché pour le secteur capitaliste (Meillassoux 1975 : 139-205). En Sierra Leone, l'intégration de la paysannerie à l'économie de marché, bien qu'aujourd'hui structurelle et irréversible, est encore fort incomplète, notamment dans les zones enclavées comme c'est le cas de notre terrain de recherche, la Sella Limba, au Nord du pays. Ici, à partir des années 1950, l'exploitation diamantifère entraîne des migrations de travail et ouvre la voie à la commercialisation des produits vivriers. Plus tard, des cultures purement commerciales (tabac puis piment) apparaissent. Ces dernières années enfin, l'orpaillage artisanal offre de nouvelles opportunités de travail salarié. Cette intégration ne s'accompagne cependant d'aucun bouleversement des techniques de production agricole qui restent exclusivement manuelles et dont la productivité se dégrade. Bien que la marchandisation des relations sociales s'est accompagnée de l'éclatement des groupes domestiques1 en unités de plus faible taille et à l'existence souvent précaire, l'organisation 1 Défini au sens de l'anthropologie économique (Meillassoux 1975). En Sella Limba, le groupe domestique est longtemps resté le lieu où se décidait et se déroulait l'essentiel de la circulation du travail et de son produit 2/27 sociale de la paysannerie continue de porter l'empreinte forte des anciennes solidarités. Malgré le maintien des paysans sella limba dans une grande pauvreté matérielle et l'absence d'accumulation de capital au sens classique du terme, la marchandisation est-elle, comme le prédit Bernstein, synonyme de différenciation économiques et sociales durables au sein de ces paysanneries? C'est la question à laquelle cet article tente de répondre. L'étude historique détaillée, sur 3 à 4 générations de producteurs, des rapports sociaux qui règlent la circulation et le partage de la force de travail permettra dans un premier temps de comprendre la situation actuelle des groupes domestiques, caractérisées par l'instabilité de leurs contours et l'évolution permanente de leur fonctionnement. On verra ensuite que les institutions qui encadrent aujourd'hui l'essentiel des échanges de travail entre les groupes domestiques et les individus offre la possibilité de décomposer la force de travail mais freine le développement de sa marchandisation totale. Sur cette base, on analysera les formes que prend aujourd'hui, malgré la faiblesse des niveaux de productivité, la différenciation des unités de production / consommation. L'essentiel des sources de l'analyse historique est constitué par les témoignages de paysans sella limba, des deux sexes et de tout âge, réalisés dans le cadre d'un doctorat entre mars 2007 et décembre 2011. A travers la reconstitution des trajectoires individuelles et des groupes domestiques, ces entretiens avaient pour objet l'analyse de l'évolution des pratiques paysannes et des rapports de production et d'échange. La dernière partie de l'article repose sur l'exploitation de 58 études de cas conduites en Sella Limba entre 2010 et 20112. 2 Le groupe domestique durant la première moitié du XXe siècle : circulation interne du travail et des subsistances
Avec plus de 30 hab / km2 (McCulloch 1964 : 49), la Sella Limba était déjà, en 1930, une zone densément peuplée pour la région. Les recrûs arborés, associant lianes et arbres à croissance rapide dans une formation végétale dense (thakay), dominaient alors un paysage de collines. On les exploitait en abattis-brûlis : défrichés à la hache et au sabre d'abattis, ils étaient laissés à sécher puis brûlés pendant la période la plus chaude de l'année. En début de saison des pluies, le semis du riz, associé à un complexe cultural très riche, était accompagné 2 La constitution de notre échantillon a reposé sur un zonage agro-écologique (Palliere, 2013) et sur les résultats de notre analyse historique. 3/27 d'un grattage superficiel à l'aide d'une houe à soie au fer étroit (kusala). L'entretien des parcelles mobilisait les femmes (désherbage) comme les hommes (construction de barrières) avant les récoltes qui s'étalaient de la fin de la saison des pluies au début de la saison sèche. En seconde année, arachides et fonio étaient cultivés sur une partie de la parcelle. Ensuite, la reproduction de la fertilité était assurée par un recrû arboré d'une période de 7 à 10 ans. Le groupe domestique était constitué du « cercle des maisons » (kuru kuru). Chaque hameau (meti) comprenait deux à trois kuru kuru. A la tête de chacun d'entre eux se trouvait un homme âgé que nos témoins désignent comme le « père » (handa), « l'aîné3 » (mayon ma, le premier) ou le « chef » (gabku). que année, il désignait l'emplacement du « grand essart » (tembuy). Tous les hommes et toutes les femmes du kuru kuru cultivaient cette parcelle et la récolte de riz paddy (paga) était placée dans des coffres en bois, sous le contrôle strict de l'aîné, responsable de la conservation des semences et de la distribution du paddy pour la consommation courante du kuru kuru. Le paddy était confié aux femmes les plus âgées disposant chacune de son propre foyer (ou marmite, somba). Elles supervisaient la préparation quotidienne de la nourriture et répartissaient le riz cuit (sisa) entre les individus sous leur responsabilité. Les récits témoignent de tensions qui traversaient le kuru kuru, tensions d'autant plus vives qu'augmentait sa taille, et qui se résolvaient par sa segmentation. Fonder un nouveau hameau aux marges du territoire cultivé, ou un nouveau kuru kuru au sein du hameau initial, était une option réservée aux hommes mariés, disposant de leurs propres outils et semences et capables d'entraîner un nombre conséquent de dépendants. Une solution provisoire consistait à confier à un groupe d'actifs la culture d'un petit essart (hutolo), toujours contigu au tembuy. Le produit du petit essart, comme celui des parcelles de fonio et d'arachide de seconde année, ne rejoignait pas le coffre de l'aîné mais restait sous le contrôle de la femme gestionnaire de la « marmite » du groupe concerné. Mais grands et petits essarts étaient toujours jointifs et un unique brûlis était réalisé au moment jugé opportun par l'aîné. La fenêtre calendaire pour la défriche des petits essarts des cadets, et par conséquent la taille de ceux-ci, restaient donc contraintes par le calendrier agricole contrôlé par l'aîné. Le contrôle de l'aîné sur les cadets se traduisait donc, à l'échelle du cycle agricole, par une organisation stricte de l'assolement et des calendriers de travail. Mais ce contrôle reposait 3Dans la suite du texte nous utiliserons ce terme qui fait référence à une certaine institutionnalisation du rapport d'antériorité vis à vis des « cadets » (Paul 2003 : 309) 4/27 surtout, à l'échelle des cycles viagers, sur celui de la circulation des épouses entre les hameaux4. Ce sont l'aîné et les aînées, à la tête respectivement du kuru kuru et des « marmites », qui procuraient à leurs fils des épouses. Elles provenaient d'une aire matrimoniale5 constituée de plusieurs hameaux voisins. Tous les témoins insistent sur l'âge tard auquel les jeunes hommes se mariaient alors. Au contraire, les jeunes filles partaient très jeunes vivre chez leurs affins (komone), dans le kuru kuru de leur futur époux. Elles y travaillaient de longues années sous l'autorité de leur belle-mère avant de disposer à leur tour de leur propre « marmite ». La « patience » dont les cadet(te)s faisaient preuve était alors la manifestation du « respect » témoigné envers leurs aîné(e)s. Durant les premières décennies du protectorat britannique, décrété en 1896, la Sella Limba resta isolée par rapport aux régions proches des comptoirs commerciaux de l'embouchure des rivières du nord ou des stations chemin de fer achevé en 1907 (Riddell 1970 ; Deveneaux 1973 ; Sibanda 1979 ; Alie 1990). Jusqu'au début des années 1950, le système social traditionnel semble avoir échappé aux involutions radicales subies dans d'autres régions plus exposées aux processus de modernisation. Les opportunités économiques permettant aux cadets d'échapper au contrôle des aînés, opportunités qui se multiplieront durant les dernières années du protectorat, étaient alors très limitées. Les sella limbas ne vivaient pas pour autant en autarcie : la vente des noix de palmistes, notamment, récoltées tout au long de l'année, procurait un revenu monétaire. Mais le comptoir commercial le plus proche se trouvait à une centaine de kilomètres qu'il fallait parcourir à pied durant le creux du calendrier de travail qui suivait la récolte. La part du produit agricole consacrée à la vente restait donc faible et, bien que le voyage fut entrepris par les cadets, les recettes monétaires restaient sous contrôle de l'aîné. Elles lui permettaient d'acquitter l'impôt de case du protectorat (hut tax). Cette amorce de marchandisation et de monétarisation de l'activité agricole a-t-elle constitué le ferment de l'émancipation future des cadets? L'intégration de la paysannerie sella limba à l'économie nationale restait en tous cas trop faible pour que ces potentialités s'expriment : le groupe domestique produisait la quasi-totalité de sa subsistance, la plus grande part du travail des productifs était consacrée à la production vivrière et seule une part marginale du produit agricole faisait l'objet d'échanges marchands. Ainsi, le grand essart de 4 La société sella limba est patrilinéaire et virilocale. 5 Meillassoux (1975 : 73). 5/27 l'aîné absorbait la quasi-totalité du travail des individus productifs du kuru kuru, tandis que la quasi-totalité du produit agricole circula it en sens inverse, du coffre de l'aîné aux marmites des femmes aînées. Dans cette économie très faiblement intégrée au marché, la production agricole n'avait de valeur qu'en tant que subsistance susceptible de se convertir en énergie humaine 6 à court ou moyen terme (entretien des productifs et production des producteurs), dans le cadre contraignant de la reproduction du système social. Les déséquilibres démographiques structurels entre productifs et improductifs, comme il ne manque pas d'en advenir au sein de groupes numériquement faibles, se résolvaient par la mise en circulation des enfants préproductifs. Cette circulation assurait l'équilibre entre la capacité productive du groupe et le nombre de bouches à nourrir. 3 Du grand essart de riz aux petites parcelles de piment : marchandisation de la force de travail et du produit agricole en Sella Limba depuis 1950
Dans les années 1950, le secteur diamantifère connut un essor spectaculaire à l'est du pays. L'extraction manuelle des diamants alluviaux, longtemps interdite, fut autorisée en 1956 (Zack-Williams 1982). Industrie à très faible niveau de capital, les mines nécessitaient une importante main d'oeuvre. Pour les jeunes hommes sella limba, c'était une opportunité 1975 83) nouvelle. Leur travail acquit une valeur d'échange dont l'actualisation impliquait de quitter hameau et groupe domestique. Choix difficile car il était synonyme de rupture d'avec le lignage. Les aînés ne pouvaient en effet accepter d'être privés de ces productifs qu'ils avaient eux-mêmes « produits » et dont la présence au sein du kuru kuru était la condition sine qua none à son bon fonctionnement – comme elle l'était d'ailleurs à la reproduction de l'ensemble du système social. De leur côté, les aînés participèrent à la déstructuration des kuru kuru. Le développement du secteur minier créa une forte demande en vivrier pour nourrir les mineurs (Levi 1975 ; Richards 1996 : 51). Rapidement, des commerçants s'installèrent en Sella Limba à la recherche de riz à revendre dans les districts diamantifères. Ils proposaient en échange aux paysans de nouveaux produits manufacturés. C'est alors, par exemple, que la tôle ondulée s'imposa comme l'attribut indispensable de la maison d'un chef de famille respectable. Ainsi, la production vivrière acquit elle aussi une valeur d'échange. La double circulation interne aux kuru kuru du produit et du travail fut en partie détournée vers le . Les témoignages sont nombreux qui attestent de la multiplication des tensions entre les générations engendrées par ces évolutions. On évoque les frères cadets partis « sans même dire au revoir » ou encore les menaces et les pratiques de sortilèges des aînés à l'encontre des cadets. Jusqu'aux années 1990, c'est environ la moitié de chaque fratrie qui quittera les hameaux, le plus souvent pour les mines de diamant. L'énergie humaine investie dans la production des producteurs fut donc en grande partie détournée au profit du secteur minier. Il faut souligner que les salaires journaliers des mineurs n'excédaient guère le minimum nécessaire à la simple reproduction de la force de travail, au jour le jour, ce qui suggère que le départ vers les mines correspondait pour les cadets autant à une aspiration à l'émancipation qu'au désir d'amélioration de leurs conditions matérielles de vie. A cette même époque, les paysans sella limba adoptèrent les techniques de la riziculture inondée de bas-fonds. Elles permettaient à la fois de mieux répondre à l'opportunité offerte par l'émergence du marché vivrier et de retenir une partie des jeunes au village. Un nouveau compromis fut trouvé au sein des groupes domestiques : en échange du travail fourni sur le tembuy des versants, les aînés offrirent aux cadets la possibilité de cultiver à leur compte une parcelle de riz inondée dans les bas-fonds, souvent par groupe de frères utérins : après les semailles dans les champs pluviaux, les jeunes travailleurs descendaient labourer les basfonds, utilisant une houe à soie au fer large d'un nouveau type (kubada), et repiquer le riz. 7/27 Dans les bas-fonds, pour suivre les mouvements de la lame d'eau, il fallait effectuer rapidement ces opérations. L'organisation des jeunes en groupes saisonniers (kune), qui travaillaient alternativement dans les champs de bas-fonds des uns et des autres, répondit en partie à cette nouvelle contrainte. La récolte du riz inondé avait lieu après celle du tembuy. Une partie du riz de ces bas-fonds pouvait être destinée à la vente pour l'achat, par exemple, de vêtements de prestige, une autre partie permettait aux aînées maîtresses des marmites de disposer de leur propre réserve indépendante du grenier de l'aîné. Cet arrangement n était pas entièrement nouveau. Cependant, la déconnexion spatiale entre le grand essart de l'aîné (tembuy) et les petites parcelle des cadets (hutolo) comme le développement de nouvelles techniques de culture singularisaient le travail des cadets et leur offrait la possibilité d'une organisation plus autonome. C'est ainsi que la commercialisation du riz et l'introduction concomitante du riz de bas-fonds correspondirent à un mouvement significatif d'émancipation des cadets vis-à-vis des aînés et d'autonomisation relative des différentes marmites vis-à-vis du kuru kuru7. La riziculture inondée représentait aussi un mode d'exploitation du milieu nouveau. Il ne reposait plus sur le recrû spontané entre deux cycles de culture mais sur l'aménagement de la parcelle cultivé : défrichage, dessouchage, élargissement, drainage, planage Les paysans réalisèrent dès cette époque un investissement pluriannuel et durable en travail et, en conséquence, les actifs concernés du kuru kuru, généralement une phratrie, s'approprièrent de facto la parcelle aménagée. Cette appropriation amorça le processus d'éclatement 8 du kuru kuru : disposant désormais de leurs propres stocks de semences et parcelles, les groupes de frères utérins saisirent plus systématiquement l'occasion du décès de l'aîné pour refuser la succession collatérale. Refusant de se placer sous l'autorité d'un frère cadet du défunt, ils constituaient de nouveaux groupes autonomes. On aboutit donc à moyen terme à la multiplication d'unités de plus petite taille dont les caractéristiques sociodémographiques s'opposaient désormais au fonctionnement quasi-autarcique des anciens kuru kuru. Cependant, le développement du secteur vivrier marchand va être précocement sacrifié par les importations massives de riz asiatique destinées à contenir les salaires des mineurs (Richards 1996 : 51). C'est dans ce contexte qu'une filiale locale de la British and American 7 8 Delarue (2007 : 200-201) décrit le même phénomène en Guinée Forestière, à la même époque. On différencie ici la segmentation, processus structurel au système social « traditionnel » qui constitue le moyen de résolution de ses contradictions internes, de l'éclatement, tendance historique décrite ici et observée par de nombreux auteurs de la région (Binder 1989 ; Leach 1994 ; Delarue 2007). 8/27 Tobacco obtint du gouvernement le monopole régional de la production et de la commercialisation du tabac. Elle mit en place modèle de culture intégrée : en échange de l'avance des frais de campagne, notamment des engrais de synthèse, les paysans s'engageaient à suivre un itinéraire technique précis et à vendre l'intégralité de leur tabac à la compagnie. A partir de 1975, la filière intégra un grand nombre de paysans, avec de lourdes conséquences sur le mode de mise en valeur du milieu : une clause du contrat imposait le dessouchage des recrûs arborés, bouleversant les modes de reproduction de la fertilité. Désormais, celle-ci ne reposait plus sur le recrû spontané mais sur l'apport d'engrais. De plus, l'itinéraire technique du tabac entrait en concurrence avec celui du riz pluvial pour la mobilisation de la main d'oeuvre. La compagnie avançait également aux tabaculteurs du riz importé, payable à la récolte : les sacs de riz asiatique prirent à cette époque une place dans l'économie locale qu'ils ne céderont plus. La période du tabac (1975-1996) est donc caractérisée par l'accentuation de l'intégration économique de la paysannerie sella limba, par une monétarisation rapide de son économie. Le développement d'une culture à vocation uniquement commerciale établit un rapport presque direct, au sein des groupes domestiques, entre la journée de travail et sa valeur monétaire. Les échanges marchands de force de travail entre paysans – journées de travail contre argent ou contre riz – émergèrent alors. Les jeunes d'alors racontent encore aujourd'hui l'agacement qu'ils ressentaient à travailler pour que l'aîné s'enrichisse à leurs dépens. Inversement, s'offrit aux aînés, pour la première fois, la possibilité de mobiliser ponctuellement, aux moments les plus opportuns, des travailleurs dont ils n'avaient pas à assurer l'entretien l'année durant. Cette dynamique accéléra encore l'éclatement des kuru kuru et la constitution d'unités de production de petite taille. La fin des années 1990 est marquée, avec la propagation de la guerre civile dans la région étudiée9, par la disparition de la filière tabac et le ralentissement des activités commerciales. Le mouvement d'intégration au marché de l'économie agricole sella limba marque le pas voire recule. Aujourd'hui, le piment à destination des marchés urbains a remplacé le tabac comme culture commerciale principale et les groupes domestiques continuent de se procurer sur le marché près de la moitié des céréales qu'ils consomment. Les échanges marchands de 9 La guerre civile démarre en mars 1991, mais 'affecte directement la Sella Limba qu'à partir de 1996 et surtout d'octobre 1998, quand les rebelles du RUF installent leurs quartiers dans le bourg de Kamakwie, jusqu'à la fin officiel du conflit 3 ans plus tard. Le RUF a peu recruté parmi les jeunes ruraux de Sella Limba et la chefferie n'a pas connu d'afflux massif de réfugiés. 9/27 force de travail – sous la forme d'achat et de vente de journées de travail entre les paysans – continuent de se développer. L'augmentation de la densité de population, associée à l'arrachage obligatoire des recrûs arborés pour la tabaculture, a entraîné la disparition de l'abattis-brûlis comme mode de mise en valeur du milieu et de reproduction de la fertilité (Palliere 2013). Pour faire face à la dégradation brutale des conditions agro-écologiques, les paysans généralisent alors la technique du billonnage qui correspond à un labour stricto sensu : par l'enfouissement de la biomasse végétale, elle limite la pression des adventices sur la culture et concentre dans l'horizon superficiel du sol la matière organique en décomposition. Le billonnage régulier des parcelles – tous les ans dans les bas-fonds avant le repiquage du riz, et tous les 4 ans sur les terres pluviales, avant le repiquage du piment – est aujourd'hui la base du mode d'exploitation du milieu en Sella Limba. Malgré ce labour de début de cycle, des désherbages plus fréquents et plus lourds sont nécessaires à l'entretien des parcelles pendant la saison des pluies. Ces nouvelles pratiques témoignent de l'intensification par le travail des systèmes de culture. Malgré les innovations de ce dernier demi-siècle, dans le domaine des variétés, des outils (qui restent cependant manuels), des rotations et associations, la productivité brute journalière du travail agricole10 des paysans a nettement décliné. Nous l'avons évalué pour aujourd'hui de 2,7 et 3,6 €11 12. On verra plus loin que le niveau de la production n'excède guère les besoins nutritionnels nécessaires à la reproduction du groupe domestique. Depuis 2007, avec l'évolution des prix relatifs, l'exploitation artisanale à petite échelle de l'or alluvial, en Sella Limba même, s'est fortement développée. Les jeunes sont nombreux à vendre leurs bras aux petits patrons de l'orpaillage. Mais les salaires journaliers sont maintenus entre 1,8 et 2,7 € par jour de travail, soit moins que la productivité agricole brute journalière13. Ainsi, si cette activité peut venir compléter, en saison sèche notamment, la Rapport entre la quantité de produit agricole obtenu et le nombre de jours de travail investis dans la culture. 11 Pour faciliter la compréhension du texte, les sommes sont indiquées en euros, à la décimale près. En 2011, durant la période de recherche de terrain, 1 euro équivalait en moyenne à 5 500 leones. 12 Ces données, qui datent de 2011, sont le résultat de l'analyse des pratiques agricoles à l'échelle des systèmes de culture basée la décomposition du paysage en facettes agro-écologiques et d'un zonage de la région étudiée (sur ces concepts : Sébillotte 1976 ; Cochet 2011a et 2012). Figure 1 : Chronologie de l'intégration économique de la Sella Limba au marché national et mondial 4
La kune : l'institutionnalisation d'une marchandisation incomplète des rapports sociaux. L'histoire récente de la paysannerie sella limba est donc marquée par son intégration croissante, dans des conditions variables mais tendanciellement toujours plus défavorables, à l'économie nationale et mondiale, et en conséquence par la marchandisation des rapports sociaux, c'est-à-dire par la circulation marchande du travail et du produit de ce travail. Cette dynamique – à la fois agro-écologique, sociale et économique – s'est traduite par l'éclatement du kuru kuru en groupes plus petits et plus précaires. Aujourd'hui, au sein des hameaux, ces groupes échangent des journées de travail et la grande majorité de ces échanges sont institutionnalisés en groupes de travail saisonniers, les kune. L'analyse du fonctionnement de cette institution et des usages qu'en font les paysans montre le caractère incomplet et hybride de la marchandisation des rapports sociaux. « You work for me, I work for you » répètent à l'envi les paysans pour souligner la réciprocité et la solidarité qui règnent au sein des kune. Ils justifient cette organisation par l'effet d'entraînement et de compétition qui pousserait chacun à abattre plus de travail que s'il 11/27 était seul. Ce type de groupe est très commun en Afrique de l'Ouest, et la littérature se fait l'écho des mêmes justifications. Ces descriptions normatives masquent le fonctionnement réel des kune dont l'analyse révèle des stratégies de captation de travail 14. Tandis que certaines de ces stratégies tendent à prolonger les anciens rapports sociaux, d'autres soulignent clairement la dynamique de leur marchandisation.
4.1 Le fonctionnement des kune : échanges, achats-ventes et
La contribution de chaque membre de la kune est soumise à une comptabilité rigoureuse. Pour une kune de 20 membres, par exemple, chaque membre dispose de 5 tours. Chaque travailleur accomplit en une journée un certain nombre de portions (bara) et le chef choisi par la kune est responsable du partage équitable de ces portions. Les retards et le travail bâclé sont punis. Un adolescent effectue des demi-bara et ne bénéficie donc de la kune qu'un tour sur deux. Le souci de décomposer le travail de chaque actif de la kune trahit la manipulation des échanges entre groupes domestiques que permet cette organisation du travail, et facilite leur marchandisation. Il est en effet possible de vendre son tour de kune en échange de riz ou d'argent. Si certains paysans s'y résolvent, c'est toujours par défaut de capital circulant. Telle parcelle destinée au riz pluvial est prête à être ensemencée mais il manque les semences. On échange alors avec un paysan disposant d'un surplus de semences un tour de kune de 20 membres contre 20 pans15 de semences ou 18,2 €. Or, le coût d'un homme-jour au sein d'une kune est inférieur à la productivité journalière moyenne agricole, ce qui justifie l'investissement des acheteurs. Néanmoins, ces derniers doivent avoir assez de capital circulant pour acheter 20 journées de travail d'un coup : la kune ne se divise pas. Des tours de kune sont également vendus pour se procurer de la nourriture pendant la soudure. Au coeur de la saison des pluies, alors que chacun se consacre à lutter contre l'enherbement de ses parcelles, la vente d'une kune de 20 membres peut permettre à une femme de nourrir 5 personnes en riz importé pendant une dizaine de jours. Outre cette forme d'achat / vente directe, il existe une autre forme d'inégalité de l'échange de journées de travail, plus courante et plus discrète. Quand viennent leur tour d'accueillir la kune, les paysans doivent fournir un copieux repas de mi-journée. Certains membres ne disposent pas, au moment voulu, des ressources nécessaires à la préparation de ce repas. Dans ce cas, le groupe travaillera uniquement la matinée, abattant la moitié du travail normal. 14 Voir Pillot (1993 : 195-248) comme exemple d'une analyse détaillée de ce type de stratégie dans le cas d'Haïti. 15 Le pan (une bassine de plastique) de riz paddy en Sella Limba pesait en 2011, environ 2,5 kg de paddy. 12/27 Ainsi par manque structurel ou conjoncturel de trésorerie ou de réserves, certains paysans échangent des journées entières de travail contre des demi-journées. Le don de kune, enfin, est une autre forme d'échange non équivalent. Or, ce que les intéressés décrivent comme un don s'inscrit en général dans le cadre de relations sociales durables et dans un cycle d'échanges à long terme. Ainsi, au moment du repiquage du riz dans son bas-fond, tel aîné pourra solliciter l'aide d'un jeune paysan qui lui fera bénéficier de son tour de kune. Souvent ce jeune a été nourri par l'aîné durant une période de sa vie et, en cas de besoin pressant, il pourra encore espérer que l'aîné lui fasse don d'une partie de sa récolte.
4.2 Le partage des kune au sein des groupes domestiques : comment « décomposer » les actifs en journée de travail
La kune ne permet pas seulement l'échange de journées de travail entre groupes domestiques mais également le partage de ces journées entre individus qui les composent. Négocié en fonction de l'âge, du sexe et des ressources individuelles, ce partage traduit l'évolution dynamique du groupe. Une épouse et son mari partagent leur temps de travail sur leurs parcelles respectives. Mais la jeune femme qui vient de rejoindre un groupe domestique comme première épouse se trouve en position défavorable : elle bénéficiera peu de ses propres tours de kune essentiellement consacrés aux parcelles de son mari et de sa belle-mère. De plus, affectée aux tâches domestiques les plus ingrates, elle n'aura guère de temps à consacrer à ses parcelles. Plus tard, quand ses enfants auront grandi, elle cherchera pour son époux de « petites épouses » (yereme huyete) qui la remplaceront dans la kune et assureront à leur tour les tâches domestiques les plus fastidieuses. La première épouse augmentera ainsi progressivement la surface de ses cultures et son autonomie au sein du groupe16. Ce partage dynamique du travail disponible au sein du kuru kuru a également lieu entre les générations. Un jeune homme célibataire, disposant de 5 tours de kune consacrera, sans transiger, les deux premiers aux parcelles du chef du groupe domestique qui en négociera luimême la date et rassemblera les vivres nécessaires à la préparation du repas. La mère – ou la tutrice – du jeune homme, à la tête d'une des marmites du groupe, le sollicitera elle aussi pour labour de sa parcelle d'arachide. On laissera au jeune son dernier tour de kune pour qu'il 16 Si le rapport de force est défavorable aux jeunes épouses, la négociation reste nécessaire car elles peuvent mettre à exécution la menace d'un retour dans leur hameau d'origine, souvent voisin. En pleine saison des pluies, une telle démission mettrait en péril toutes les entreprises en cours. 13/27 puisse cultiver une parcelle de piment. 5 La différenciation économique et sociale des unités de production / consommation aujourd'hui en Sella Limba
Tandis que l'éclatement des groupes domestiques (kuru kuru) en unités de production et de 14/27 consommation de taille réduite est corrélé à la marchandisation des rapports sociaux, aucun développement significatif des forces productives n'accompagne cette dynamique : la productivité journalière du travail agricole paysan a stagné, voire reculé. L'étude des processus productifs à l'échelle des unités de production et de consommation nous révélera qu'il en résulte une faible différenciation économique et sociale de la paysannerie reposant néanmoins sur une pluralité de mécanismes de captation du travail.
5.1 Reproduction simple et reproduction élargie : l'économie des processus de production agricole en Sella Limba
Pour mesurer les résultats économiques des unités de production / consommation, nous distinguerons d'une part la Valeur Ajoutée (VA), c'est-à-dire le résultat du processus technique de production et d'autre part le revenu agricole (RA) qui reflète quant à lui les conditions d'accès aux moyens de production et en conséquence les modalités de l'appropriation sociale du produit (Cochet 2011a et 2012)17. De plus, nous distinguerons la part du revenu qui permet la reproduction simple de l'unité d'un cycle agricole à l'autre (c'està-dire sa reproduction à l'identique, dans son fonctionnement social et technique), de celle qui permet d'envisager sa reproduction élargie (le surplus). Le surplus que peut dégager en moyenne un actif agricole dépend étroitement de la surface qu'il est en mesure de billonner à la houe et de désherber manuellement entre les mois d'août et de mai. Dans les conditions courantes18, nous estimons qu'un actif peut cultiver annuellement 0,1 ha en bas-fond et 0,8 ha en terres pluviales pour un produit brut par actif et par an de l'ordre de 460,6 €. Après déduction de la valeur des semences (65,8 €), on obtient une valeur ajoutée par actif et par an de 394,7 €, la valeur du capital immobilisé – l'outillage manuel – étant négligeable. La part de la valeur ajoutée qui revient au producteur (308,7 €) est déduite en retranchant la part de la récolte qui est concédée aux aînés du lignage fondateur, 17 La première exprime la création de richesse, c'est-à-dire à la différence entre la valeur de toutes les richesses produites (produit brut) et la valeur des richesses détruites. 19 Soit, au prix du marché, 126 kg de riz blanc, 14 kg d'huile de palme, 18 kg d'arachide coque, 90 kg de manioc frais, 6 kg de pois cajan et l'équivalent de 41,3 € d'ingrédients achetés (poissons, glutamate, sel, ). Les autres besoins vitaux, comme l'habillement ou les produits d'hygiène (hors soins médicaux), ont un coût négligeable. 20 Pondéré par l'âge des consommateurs (0,5 pour les enfants qui ne participent pas encore au kune, 1 pour tous les autres). Cette pondération un peu grossière est inspirée de la manière dont les cuisinières calculent la ration en riz pour leur marmite (en cup et demi cup de riz décortiqué).
Figure 2: Reproduction simple, reproduction élargie de l'unité de production / consommation
Ce raisonnement correspond à un producteur ou à un groupe de producteur qui emploierait sa seul force de travail sur ses seules parcelles. Or, comme on l'a vu, avec l'éclatement des kuru kuru de ces dernières décennies, les échanges de journée de travail par le biais des kune se sont développés. Afin d'augmenter le surplus qu'ils dégagent, les paysans tentent de consacrer une part de leur récolte à la captation de travail extérieur, entre mai et août, quand le coût d'opportunité de la journée de travail est maximum. A chaque cycle de culture, les ressources injectées dans le processus de production pour capter du travail proviennent du surplus dégagé durant le cycle de culture précédent. Il y a donc potentiellement accumulation de capital circulant (vivrier et argent), c'est-à-dire reproduction élargie de l'unité de production / consommation. En absence d'accès à des moyens de production plus performants, cette accumulation est la seule source potentielle de différenciation au sein la paysannerie. Pour estimer l'ampleur de cette accumulation différentielle, et comprendre sous qu'elle forme elle se cristallise, il faut d'abord mesurer la place relative des ressources consacrées à la captation de travail, le surplus ainsi créé, et analyser son utilisation. 5.2 La faiblesse du surplus limite l'impact de la circulation de la force de travail sur le Revenu Agricole
Le travail échangé entre les unités de production circule via les kune et le coût de la force de travail correspond soit à l'achat direct de tours de kune, soit à la préparation d'un repas. En 2011, une kune valait 0,9 € / travailleur et par jour et la préparation du repas de mi-journée 0,4 € / travailleur. Les unités de production les mieux dotées en capital circulant (riz ou trésorerie) consacraient jusqu'à 272,7 € à la captation de travail, soit une centaine de journées de travail achetées et plus de 200 repas préparés entre mai et août. A l'opposé, d'autres paysans ne disposaient pas des ressources pour la préparation du repas de la kune et devaient parfois vendre un ou plusieurs tours de kune, certains obtenant de cette vente jusqu'à environ 55 € (correspondant à plus de 70 jours de travail payés en monétaire, en semences ou en vivrier). Figure 3: Revenu Agricole et Surplus par actif domestique en fonction des ressources consacrées par actif domestique pour la captation de force de travail entre mai et août
La figure 3 indique que le RA/actif d'une unité de production augmente régulièrement 18/27 avec la quantité de travail extérieur capté21. L'essentiel de ce RA est utilisé, comme on l'a vu, à l'alimentation (autoconsommation et achat de vivrier). Si l'on retranche au RA total de l'unité de production/consommation la somme minimum nécessaire à la subsistance de tous ses membres22 et qu'on ajoute les revenus non-agricoles23, on obtient le « surplus ». La figure 3 indique la faiblesse générale du niveau des surplus et sa non-corrélation d'avec le niveau de captation de travail. Quelques unités, à la fois bien dotées en ressources et ayant peu de personnes à charge par actif, dégagent un surplus significatif (environ 135 € / actif et par an) mais plus nombreuses sont celles dont le surplus est faible (inférieur à 40 €), voire négatif. Pour ces dernières, la solidarité des réseaux de parenté et de voisinage peut aider à passer une année exceptionnellement difficile. Mais lorsque le hiatus entre capacité productive et nombre de bouches à nourrir devient structurel, les unités de production/consommation éclatent : divorce des épouses qui rejoignent avec leur progéniture un autre foyer, placement d'enfants chez un oncle plus prospère ou encore par la fuite des jeunes actifs vers les mines ou vers Freetown. Parmi les unités qui dégagent un surplus, la moyenne se situe autour de 60 € / actif et par an. Il faut comparer ce chiffre à la valeur des biens matériels auxquels les paysans aspirent aujourd'hui dans les campagnes sierra-léonaise. Un homme mûr doit posséder une maison moderne », couverte de tôles dont le coût moyen s'élève à 363,6 €. Pour acquérir ce bien, la plupart des paysans forment des tontines (hosusu) et épargnent 5 à 10 ans. Les bonnes années, une minorité de paysans pourra également se procurer une chèvre (entre 18 et 36 €). Une moto 125 cc, moyen de transport précieux pour aller chercher les meilleurs prix sur les marchés régionaux, vaut plus de 900 € et reste hors de portée des paysans. Même pour la catégorie des paysans la mieux dotée en ressources productives, le niveau des surplus interdit l'accès à des moyens de production plus performants et ne permet pas d'envisager un processus de reproduction élargie significatif. Non seulement le nombre de journées captées reste marginal au regard du travail fourni par les actifs domestiques mais encore la productivité journalière du travail restant très faible, le surproduit issu de la captation de journées de travail ne représente qu'une faible part du revenu des groupes 21 Évidemment, pour un même niveau de dépense dans la captation de force de travail on observe des variations liées à de légères différences d'assolements, d'accès à des prix de vente différents ou encore d'équilibre entre hommes et femmes au sein des unités. 22 Il s'agit ici du nombre réel et non plus un nombre moyen de consommateurs de chaque unité. 23 Les revenus de l'orpaillage ont été estimés en considérant qu'un jeune actif travaillait 100 jours dans les mines tout en continuant d'exploiter ses parcelles. 19/27 domestiques les mieux placés. La marchandisation des rapports sociaux ne correspond donc pas à l'émergence, au sein de la paysannerie, d'une classe d'employeurs qui ferait face à une classe de paysans en voie de prolétarisation mais plutôt à une déstructuration générale où les unités les mieux dotées assurent, bon an mal an, leur reproduction simple tandis que la plupart des autres survivent, vaille que vaille, dans des conditions toujours plus dégradées.
5.3 Captation ponctuelle de force de travail ou de d'énergie de travail en formation : des stratégies d'accumulation hybrides
Outre la faiblesse des surplus que dégagent les unités de production/consommation, la figure 3 indique également que, contrairement au RA total, le surplus n'est pas corrélé à la quantité des ressources engagées dans la captation travail à l'extérieur du cercle domestique. Les unités de production qui captent de la force de travail ne dégagent pas un surplus supérieur à celles qui en cèdent. Cette situation s'explique par des différences dans le nombre de bouches à nourrir par actif. En moyenne, le rapport consommateurs / actif est de 1,9. Mais dans certaines unités ce rapport chute à moins de 1,5 (par exemple un couple avec 2 enfants) tandis que dans d'autres il grimpe au-delà de 2,5 (un couple avec 6 enfants). Ces disparités ne sont pas le produit d'une différence de croît démographique endogène aux unités de production/consommation24. Elles résultent de réarrangements permanents au travers, notamment, de la circulation des enfants entre unités. Comme dans un grand nombre de sociétés paysannes ouest-africaines, les rejetons ne sont pas élevés systématiquement par leurs géniteurs ou par eux pas seulement. Une enquête que nous avons menée auprès de 148 femmes adultes révèle que sur leurs 223 rejetons vivants encore à charge d'un adulte (enfants et adolescents célibataires), 61 d'entre eux (27%) sont élevés dans une autre unité que celle de leur génitrice. A l'opposé, ces 148 femmes adultes élèvent 72 enfants (30% des enfants à leur charge) nés hors de leurs unités respectives25. Comme ailleurs en Sierra Leone (Bledsoe & Isiugo-Abanihe 1989), les femmes âgées, notamment les grands-mères maternelles, sont les bénéficiaires fréquentes de cette circulation. Souvent les enfants sont élevés par plusieurs femmes durant toute leur vie pré-productive et nourrir au quotidien un enfant n'est pas la seule manière de contribuer à son élevage : on peut également fournir l'argent et le riz nécessaire à 24 Comme c'est le cas, par exemple, dans le modèle de la famille paysanne de Tchayanov (1990). 25 C'est une estimation basse du phénomène qui correspond aux cas de changement de résidence de l'enfant. Entre les marmites d'une même unité de résidence, la circulation des enfants est plus discrète et encore plus réversible. Ces chiffres sont par ailleurs cohérents avec les résultats d'autres enquêtes réalisées en Sierra Leone. Chez les mende de l'est du pays, entre 30 et 45 % d'enfants sont « fosterés »(Bledsoe & Isiugo-Abanihe 1989, Isaac & Conrad 1982). 20/27 son initiation ou encore participer aux frais de sa scolarisation. exclure la dimension affective, les grands-mères concernées décrivent explicitement l'énergie et les ressources qu'elles consacrent à élever ces enfants comme un investissement. Quand elles se plaignent d'enfants qui ne donnent pas « de nouvelles » depuis leur départ à Freetown, elles leur reprochent de ne recevoir ni argent, ni riz, ni vêtements. De la même manière, elles disent d'un enfant décédé avant d'avoir pu travailler ou d'un adolescent qui a fui sans « dire au-revoir », qu'il est « gâté », comme pour une récolte ou n'importe quel autre investissement perdu. Dans la mesure où une partie du RA sert, non pas à la captation immédiate de force de travail mais à l'élevage des pré-productifs, c'est-à-dire à la formation d'énergie de travail dont la jouissance est reportée, donc incertaine, mais potentiellement inscrite sur plusieurs années, voire sur plusieurs générations, on peut parler de stratégies d'accumulation hybrides : productive et viagère. Ces deux stratégies, captation de journées de travail d'une part, adoption de futurs actifs d'autre part, qui se développent à des pas de temps différents, sont en partie contradictoires : la part du RA « mangée » par les enfants non productifs est indisponible pour la captation immédiate de journées de travail. En partie seulement car c'est bien la captation de travail et l'appropriation d'un surproduit qui autorisent la captation de cette énergie de travail en devenir et la consolidation de l'unité de production/consommation
5.4 La permanence actuelle des anciens rapports sociaux dans les grands groupes domestiques
Dans leurs discours, les aînés continuent d'accorder beaucoup d'importance à « l'unité de la maison » et ils désapprouvent l'ambition des jeunes gens à la recherche d'une émancipation toujours prématurée à leurs yeux. Il y a donc un paradoxe : si la captation ponctuelle de force de travail permet aujourd'hui à quelques paysans d'accumuler à court terme du capital circulant, à long terme, réunir un grand nombre d'individus sous leur autorité continue d'être synonyme de prospérité. L'éclatement des kuru kuru a globalement donné naissance à des unités de production/consommation plus petites, mais la situation est hétérogène. La majorité des unités rassemblent de 2 à 4 actifs, généralement organisées autour d'un couple monogame auquel s'ajoute frère ou un enfant en âge de travailler. Quelques hommes, âgés et polygames, rassemblent sous leur autorité de 5 à 10 actifs. Ces dernières unités semblent reproduire les 21/27 rapports sociaux qui prévalaient au sein des anciens kuru kuru : tous les actifs contribuent au travail sur les parcelles du doyen qui redistribue le produit vivrier via les femmes âgées du groupe qui chacune contrôle une marmite. Cependant, aussi bien pour leur subsistance que pour leurs revenus monétaires, les marmites sont aujourd'hui plus autonomes que par le passé. Les disparités économiques entre marmites d'une même unité peuvent d'ailleurs être aussi importantes qu'entre unités elles-mêmes. Mieux, chaque travailleur dispose individuellement de ses propres parcelles dont la taille varie en fonction de son statut et de ses ressources propres. Figure 4: Nombre d'enfants pré-productifs à charge en fonction du nombre d'actifs (par unité de production / consommation) 22/27 Figure 5: Ressources consacrées à la captation de force de travail entre ami et août en fonction du nombre d'actifs (par unité de production / consommation)
Cette situation s'explique par une économie d'échelle. La force de travail se présente en quantités discrètes : il est en effet encore impossible d'acheter une heure ou une journée de travail. Il faut mobiliser d'un coup les ressources nécessaires à l'achat un tour de kune dans son intégralité (18,2 € par exemple pour un tour de kune de 20 membres). Ainsi, en raison de la faiblesse des surplus individuels et du caractère discret de la force de travail, seules les unités de production/consommation qui « mutualisent » le surplus d'un grand nombre d'actifs ont la capacité de capter du travail. Les petites unités, même si elles dégagent un surplus, n'ont pas cette capacité. Ce raisonnement vaut également pour l'adoption d'un enfant. La mutualisation repose sur la capacité des aînés à réunir sous leur autorité, en activant les rapports sociaux d'antériorité, même déformés et manipulés, un nombre suffisant d'actifs. Mais ces pseudo-kuru kuru contemporains sont soumis à de très fortes tensions : les femmes veillent à ce que leur propre progéniture ne soit pas lésée et les jeunes travailleurs sont souvent tentés d'abandonner les aînés à leurs parcelles pour émigrer à Freetown. Ainsi l'« unité » domestique, tant loué par les hommes âgés, dépend largement de l'intérêt que trouvent les femmes et les cadets à rester sous leur autorité et donc des récoltes qu'ils 23/27 obtiennent chaque année. Les vieux sella limba le rép tent : s'il n'y a pas de riz, il n'y a pas d'unité. A la mort de l'aîné, ces grandes unités éclatent en unités plus petites de 2 à 4 actifs. Les positions respectives des individus dans l'unité d'origine déterminent alors des trajectoires divergentes et la diversité des situations dérivées (représentées sur la gauche des figures 4 et 5). Les fils aînés, souvent issus des premières épouses du doyen décédé, bénéficient de la force de travail des cadets de leur phratrie élevés par les hommes et les femmes de la génération précédente, surtout leur mère. Durant plusieurs années, les jeunes unités de production qu'ils dirigent, au ratio inactifs/actifs faible, peuvent enclencher le processus de captation de force de travail et d'accumulation. 6 Conclusion
Dans les agricultures manuelles africaines caractérisées par une très faible productivité du travail, comme au nord de la Sierra Leone, les stratégies socio-économiques des producteurs sont complexes. La situation de certaines unités de production/consommation leur permet de développer des stratégies d'accumulation, certes limitée, de capital productif à court terme. Parallèlement, elles continuent de mettre en place des stratégies à long terme de captation d'individus pré-productifs. Ces deux types de stratégies, à la fois complémentaires et concurrentielles, mobilisent une combinaison évolutive de rapports sociaux « traditionnels » 24/27 et « modernes ». D'autres unités se trouvent dans l'incapacité de développer l'une ou l'autre de ces stratégies et luttent pour leur simple survie. La marchandisation des rapports sociaux, quelquefois chaotique, semble devoir s'accentuer. En témoignent les effets du développement récent de l'orpaillage local. La vente de journée de travail dans les mines d'or fait désormais partie de la vie d'un grand nombre de jeunes hommes. Bien qu'encore marginales, ces nouvelles modalités de circulation de travail, purement salariales, pénètrent la production agricole paysanne. Dans les prochaines années, l'intégration économique des paysanneries sierra léonaises pourrait connaître une nouvelle phase d'accélération avec de grands projets agro-industriels et la contractualisation de l'agriculture que cherche à développer le gouvernement sierra-léonais (Baxter 2011, MAFFS 2009 : 34). Ces paysanneries, marginalisées et aujourd'hui menacées d'être dépossédées de leur terre, continueront sans doute à jouer le rôle de fournisseurs de denrées et force de travail bon marché pour le capital des mines ou de l'agro-business. Dans ce cadre, l'émergence au sein de la paysan d'une classe de producteurs prospères et salariant eux-mêmes leurs voisins démunis n'est guère probable. L'involution de la paysannerie sella limba devrait donc se prolonger par un exode, une paupérisation et une prolétarisation croissantes et rejoindre de nombreuses paysannerie du Sud dans un processus évoquant plus les enclosures qu'une quelconque « koulakisation » (Kenney-Lazar 2011)..
| 39,879
|
787816d974c053f3a9ebd159fddba98f_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
Les déterminants de la communication volontaire des entreprises cibles d'OPA/OPE : le cas des synergies. Comptabilités, économie et société, May 2011, Montpellier, France. pp.cd-rom. ⟨hal-00650551⟩
|
None
|
French
|
Spoken
| 7,183
| 10,931
|
Les déterminants de la communication volontaire des entreprises cibles d’OPA/OPE : le cas des synergies Isabelle Martinez, Emmanuelle Negre
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Les déterminants de la communication volontaire des entreprises cibles d’OPA/OPE : le cas des synergies
Isabelle Martinez Emmanuelle Negre Professeur des Universités Doctorante contractuelle Université de
Toulouse Paul Sabatier IAE – Universit
é
Toulouse 1 Capitole Laboratoire Gestion et Cognition Université de Toulouse Paul Sabatier [email protected] Laboratoire Gestion et Cognition [email protected]
Résumé : Cette recherche vise à identifier les déterminants de la communication volontaire des entreprises cibles d’OPA/OPE. Nous prenons ici le cas de la communication sur les synergies attendues des opérations. L’étude empirique porte sur un échantillon de 98 offres publiques sur la période 1999-2010. Les résultats montrent que 35% des cibles communiquent volontairement sur les synergies. Le rôle déterminant du moyen de paiement en tant que caractéristique de l’offre est mis en exergue. En ce qui concerne les caractéristiques de la cible, son éloignement géographique avec l’initiatrice, sa taille, le noncumul des fonctions de DG et de président du CA et la part de capital détenue par l’initiatrice sont des facteurs explicatifs de cette communication. Mots-clés : déterminants, communication volontaire, cibles, offres publiques d’achat et d’échange, synergies. Abstract : This study aims at identifying determinants of voluntary disclosure of information for the target companies in takeover bids. We take here the case of synergies expected from the deal. The empirical study is based on a sample of 98 takeover bids during the period 1999 to 2010. The results show that 35% of the target companies voluntarily disclose information about synergies. Among the characteristics of offer, the mean of payment play a determining role. In terms of target companies’ characteristics, the geographical distance with initiator, the size, the non-overlapping mandates of CEO and Chairman of the Board and the target companies’ ownership detained by initiator are explanatory factors of
disclosure. Keywords
: determinants,
voluntary disclosure
, target companies,
takeover bids
, synergies.
1 Introduction
Si la communication volontaire d’informations constitue un thème récurrent dans la recherche en sciences de gestion et en comptabilité financière notamment, force est de constater que peu d’études portent sur cette communication lors des offres publiques d’achat et d’échange (OPA/OPE). Une offre publique est une opération par laquelle une société (initiatrice ou acquéreuse) annonce publiquement aux actionnaires d’une société cible qu’elle s’engage à acquérir leurs titres contre une somme en espèces (OPA) ou contre des titres (OPE) voire les deux (offre publique mixte). Il s’agit donc d’un événement particulier dans la vie d’une entreprise qui peut conduire à un comportement inhabituel de communication, comme le montre Chekkar (2007) dans le cas de l’offre publique hostile de BSN sur Saint-Gobain. Jusqu’à présent en France, les recherches comptables et financières dans le domaine des offres publiques ou plus généralement des prises de contrôle, se sont notamment focalisées sur : la gestion de résultat (Thauvron, 2000 ; Djama et Boutant, 2006 ; Missonier-Piera et Ben-Amar, 20071 ; Boutant, 2008), l’impact sur la richesse des actionnaires (Husson, 1988 ; Charlety-Lepers et Sassenou, 1994; Phelizon, 2000), les caractéristiques des entreprises cibles ou initiatrices (Dumontier et al. 1989 ; Allani, 2005 ; Meghouar, 2010), le choix du mode de paiement (Bouquin, 2006) ou encore les déterminants de la prime ou du prix d’offre (Santoni, 1995 ; Bessière, 1997 ; Segretain 2005). Quant au rôle de la communication, deux études françaises portent sur ce thème. Albouy (2005) montre, notamment à travers l’étude de cas de l’offre publique hostile de Sanofi-Synthélabo sur Aventis, que les récits, en faisant appel à l’intuition, peuvent être à l’origine de décisions d’investissement. Plus récemment, Chekkar et Onnée (2010) étudient le rôle, en contexte de crise (cas des offres hostiles), de la communication financière dans la gestion de la relation avec les parties prenantes. Au niveau international, les travaux de Brennan (1999 ; 2000) portent sur la publication volontaire d’informations lors d’offres publiques. L’auteur s’intéresse dans le cadre du Royaume-Uni aux prévisions de résultats publiées d’une part par l’entreprise cible et d’autre part par l’entreprise acquéreuse. Dans le cadre de cette recherche, nous nous focalisons sur le comportement de communication des entreprises faisant l’objet d’une OPA/OPE. Le choix des entreprises cibles se justifie à plusieurs niveaux. Tout d’abord, le taux de remplacement des dirigeants des cibles étant relativement élevé, notamment si l’offre est hostile ou/et si les performances de la cible sont faibles (Martin et McConnell, 1991), il est intéressant d’étudier quelles sont les implications d’une telle situation sur le comportement du dirigeant en matière de communication. Ensuite, et quelle que soit la situation du dirigeant, on peut supposer que la communication volontaire de la part de la cible a pour objectif, outre la volonté d’informer les actionnaires, d’influer sur les termes de l’offre (notamment sur le niveau de la prime proposée par l’acquéreuse) voire sur la réussite de l’opération. Enfin, si l’on considère qu’en période de changement et/ou de crise, les individus font d’abord confiance aux managers dits de proximité (Gancel et Sainte-Basile, 2000), il paraît plus pertinent de se focaliser sur la cible ; celle-ci étant susceptible d’avoir, par le biais de sa communication, un impact plus fort que l’initiatrice sur la décision de ses actionnaires. En outre, nous avons mis en exergue des différences de communication entre les entreprises cibles grâce à une lecture de leurs communiqués, articles de presse et comptes-rendus de 1 Plus exactement, cette étude a été réalisée dans le contexte suisse. 2 conférences téléphoniques. Si certains dirigeants communiquent volontairement des informations à chaque étape de l’offre publique, d’autres s’en tiennent aux strictes obligations. Ce constat nous conduit donc à nous interroger sur les facteurs incitatifs de la communication volontaire dans un tel contexte. L’objectif de cette recherche est ainsi d’identifier les facteurs jouant un rôle dans la décision de la cible de communiquer volontairement des informations. Quels sont les déterminants de la communication volontaire d’informations dans le cas des entreprises cibles d’OPA/OPE? Pour répondre à cette interrogation, nous avons retenu comme communication volontaire la communication faite par les cibles au sujet des synergies estimées de l’opération de rapprochement. Un échantillon de 98 offres publiques réalisées en France sur la période 19992010 a été sélectionné. Les résultats obtenus révèlent que le moyen de paiement, la part de capital détenue par l’initiatrice, le cumul des fonctions de DG et de président du CA, la taille de la cible et l’éloignement géographique des entreprises impliquées dans l’opération influent sur la décision de la cible de communiquer volontairement sur les synergies attendues. L’article est organisé de la manière suivante. La première section est consacrée à une revue de la littérature sur les déterminants de la communication volontaire en contextes spécifiques. La deuxième section définit les hypothèses et le modèle explicatif. Enfin, la troisième section consiste en une présentation et discussion des résultats empiriques. 1. Revue de la littérature sur les déterminants de la communication volontaire d’informations en contextes spécifiques
La littérature concernant la communication volontaire d’informations dans le cadre d’OPA/OPE est relativement pauvre. Aussi, nous élargissons la revue de littérature à d’autres contextes spécifiques dont les introductions en bourse (1.1) et les fusions-acquisitions au sens large (1.2). Ces différents types d’opération présentent en effet certaines similitudes. Il s’agit d’événements majeurs dans la vie d’une entreprise qui sont généralement associés à une forte asymétrie informationnelle et qui sont susceptibles d’entraîner un effort de communication supplémentaire.
1.1 Le cas des introductions en bourse
L’introduction en bourse (IPO) est un tournant majeur dans la vie d’une société. Certaines candidates à l’introduction étant peu connues du public, le prospectus en tant que document légal doit contenir toutes les informations nécessaires aux investisseurs pour fonder leur jugement. Cependant, ces derniers sont souvent insatisfaits des informations légales publiées en raison de leur caractère trop narratif (Bejar, 2006 ; Boubaker et Labégorre, 2006). Pour remédier à ces critiques, les entreprises qui s’introduisent en bourse publient dans le document légal des informations supplémentaires à caractère non obligatoire. Celles-ci peuvent être en lien avec les prévisions de résultats et le capital immatériel. 3 1.1.1 Les déterminants de la publication volontaire de prévisions de résultats
Les informations prospectives, et notamment les prévisions de résultat, portent sur des périodes futures et possèdent ainsi un caractère aléatoire et incertain. Malgré tout, elles contribuent fortement aux décisions d’achat des investisseurs potentiels et permettent une diminution de l’asymétrie informationnelle (Mai et Tchemeni, 1997 ; McConomy et Jog, 2003). Selon Firth (1998), cela s’explique par le fait que ces prévisions tiennent compte des modifications de l’environnement et des choix stratégiques de l’entreprise. La publication de ces prévisions, étant vue comme un « contrat implicite entre l’entreprise et ses différents partenaires économiques » (Cormier et Magnan, 1995 : 45), elle incite les dirigeants à une manipulation du résultat comptable l’année qui suit l’IPO (Cormier et Martinez, 2006). La publication de prévisions dans le prospectus d’introduction est obligatoire pour certains pays alors qu’elle est volontaire pour d’autres. Aux Etats-Unis, elle est même fortement déconseillée en raison des risques légaux engendrés en cas de non atteinte des prévisions fixées (Clarkson et al. 1992). En France, il convient de distinguer deux cas : avant et après février 2005, date de la réforme du marché financier européen. Ainsi, avant février 2005, il n’existait pour les entreprises cotées sur le second marché aucune obligation en matière de publication de prévisions. Si jusqu’en 1996, la publication de telles informations restait plutôt exceptionnelle, il apparaît qu’à partir de 1996 les entreprises cotées sur le second marché publient fréquemment des prévisions de résultats (Schatt et Roy, 2002). En revanche, l’inclusion des prévisions de résultats dans le prospectus d’introduction était obligatoire pour les jeunes entreprises du nouveau marché disposant de fortes opportunités de croissance. Mais, comme le soulignent Cazavan-Jeny et Jeanjean (2007), si l’AMF a prévu une obligation d’information sur le nouveau marché, la forme et le niveau de détail de cette information ne sont pas précisés de sorte qu’elle peut être qualifiée de volontaire. Depuis la réforme du marché financier, les informations prévisionnelles ne font pas partie, selon le règlement européen 809/20042, des informations strictement obligatoires devant être communiquées au public (KPMG, 2007)3. Elles sont en revanche fortement encouragées et on constate en pratique que la plupart des entreprises incorpore des prévisions de résultats dans leurs prospectus d’introduction. Ainsi, les études portent plus volontiers sur les déterminants de la précision des prévisions de résultats incorporées volontairement dans le prospectus d’introduction que sur les déterminants du choix de leur publication : au Royaume-Uni (Ferris et Hayes, 1977 ; Keasey et McGuiness, 1991), au Canada (Pedwell et al. 1994 ; Clarkson, 2000), à Hong Kong (Chan et al. 1996 ; Jaggi, 1997 ; Chen et al. 2001), en Chine (Chen et Firth, 1999), en Australie (Hartnett et Römcke, 2000), en France (Schatt et Roy, 2002 ; Boubaker et Labégorre, 2006 ; Cazavan-Jeny et Jeanjean, 2007), et enfin en Grèce (Gounopoulos, 2003). Les études sur les déterminants de la publication volontaire des prévisions de résultats sont résumées dans le tableau 1. Bilson et al. (2003) s’intéressent au cas australien et retiennent un échantillon de 154 entreprises introduites en bourse entre janvier 1991 et décembre 1997. Ils montrent que la probabilité de publication des prévisions de résultats dans le prospectus 2 Il s’agit de l’application de la Directive Prospectus. A noter que si des prévisions de résultats sont communiquées par ailleurs, leur inclusion dans le prospectus devient obligatoire, en vertu du principe d’égalité d’information des investisseurs. d’introduction est une fonction croissante de l’âge de l’entreprise. En revanche, plus forte est la variabilité historique des résultats, moins les entreprises ont tendance à publier de telles prévisions. Ceci s’explique par la crainte d’être pénalisées en cas de non atteinte des prévisions déclarées. Quant à Clarkson et al. (1992), ils révèlent que les dirigeants qui choisissent d’effectuer des prévisions de résultats ont de l’information positive à communiquer sur leurs perspectives contrairement à ceux qui ne le font pas. Leur étude porte sur un échantillon de 121 entreprises canadiennes introduites en bourse entre janvier 1984 et novembre 1987. L’idée est ici que ces prévisions de résultats favorables permettent aux « bonnes » entreprises de se distinguer des « mauvaises ». Il s’agit donc d’un signal destiné au marché financier sur la qualité de la gestion. Dans le contexte français, Cazavan-Jeny et Jeanjean (2007) montrent que l’âge de l’entreprise et l’horizon de la prévision ont un impact positif sur le niveau d’informations prévisionnelles contenues dans les prospectus d’introduction. Cela s’explique par une meilleure maîtrise du marché par les entreprises plus âgées, mais également par un besoin de justification supplémentaire lorsque les prévisions portent sur du long terme. Leur échantillon est composé de 82 introductions en bourse effectuées entre janvier 2000 et décembre 2002 sur le nouveau et le second marché d’Euronext Paris. Outre la publication volontaire de prévisions de résultats, les entreprises candidates à l’introduction en bourse peuvent décider de publier dans le prospectus des informations sur le capital immatériel. 1.1.2 Les déterminants de la publication volontaire sur le capital immatériel
Trois études principales, de Bukh et al. (2005) ; Bejar (2006) et Singh et Van der Zahn (2008), traitent des déterminants du niveau général d’informations volontaires sur le capital immatériel dans le prospectus d’introduction. La première étude porte sur 68 entreprises introduites en bourse sur le Copenhague Stock Exchange (Danemark) entre 1990 et 2001. Concernant la deuxième étude, l’échantillon est composé de 107 entreprises introduites sur les nouveau et second marchés français entre 1997 et 2004. Enfin, la troisième s’intéresse à 444 entreprises introduites sur le marché de Singapour entre 1999 et 2006. Lors d’une IPO, l’asymétrie informationnelle entre les dirigeants et les actionnaires potentiels est forte, notamment en ce qui concerne le capital immatériel4. Cela est d’autant plus vrai dans les entreprises technologiques caractérisées par « une quasi-absence d’actifs fixes, une forte dépendance de la valeur à l’égard d’équipes innovantes et un caractère singulier de l’organisation du travail » (Bejar, 2006 : 125). Tout ceci justifie non seulement une publication volontaire d’informations dans ce contexte, mais également une publication accrue d’informations sur le capital immatériel dans les entreprises technologiques. Bukh et al. (2005) confirment ainsi que lorsque l’entreprise appartient au secteur de la haute technologie, le niveau de publication sur le capital immatériel dans le prospectus d’introduction est plus important que celui d’entreprises situées dans des secteurs moins innovants. Ils trouvent également que plus la proportion d’actions détenue par le dirigeant avant l’IPO est importante, plus élevé est le niveau de publication sur le capital immatériel. 4 Selon Bejar (2006), le capital immatériel se compose de six éléments : la direction et l’encadrement de l’entreprise, les ressources humaines, l’innovation, l’organisation la maîtrise de l’activité et de l’environnement, et enfin le capital client. 5 Cette relation est justifiée par le fait que lors d’une IPO, le dirigeant est d’autant plus incité à publier volontairement de l’information qu’il est engagé dans le capital et qu’il pourra de ce fait tirer bénéfices de l’entrée en bourse de son entreprise. En revanche, la taille et l’âge de l’entreprise n’apparaissent pas comme des déterminants significatifs du niveau de publication volontaire sur le capital immatériel. Bejar (2006) confirme les résultats de Bukh et al. (2005) en établissant un lien négatif entre la cession d’actions par le dirigeant au moment de l’IPO et le niveau de l’effort informationnel sur le capital immatériel5. La vérification des comptes par un auditeur réputé ainsi que le taux d’endettement sont négativement corrélés avec le niveau de l’effort informationnel fourni par le dirigeant. L’auteur justifie le sens de la relation par le fait que les variables « réputation de l’auditeur » et « dette » signalent la qualité de l’entreprise et se substituent aux informations qui pourraient être publiées par le dirigeant. Par ailleurs, l’âge de la firme ainsi que la réputation de la banque introductrice ont un impact positif sur le niveau d’effort informationnel. Singh et Van der Zahn (2008) obtiennent une relation positive entre le pourcentage d’actions conservé par les propriétaires d’origine au moment de l’IPO et la publication sur le capital immatériel dans le prospectus. Cela témoigne d’une complémentarité entre qualité de la firme et transparence. Plus précisément, la publication d’informations viendrait renforcer la confiance des investisseurs en confortant le signal de qualité émanant de la rétention d’actions par les propriétaires d’origine. Cependant, malgré une forte rétention d’actions post-IPO, l’étendue de la publication sur le capital immatériel peut être modérée par des coûts de propriété importants. En effet, lorsque les secteurs sont très concentrés, les candidates à l’introduction sont réticentes à divulguer de telles informations par peur de perdre leurs avantages compétitifs. Enfin, en tant que variables de contrôle, la réputation de la banque introductrice, l’endettement et l’âge de la firme influencent positivement une telle publication. Pour l’endettement, le sens de la relation n’est pas conforme à Bejar (2006). Il est ici justifié par l’hypothèse de complémentarité des signaux véhiculés par la dette et le capital immatériel. Après avoir synthétisé les travaux empiriques sur les déterminants des publications volontaires lors des IPO, intéressons-nous maintenant au contexte général des fusionsacquisitions.
1.2 Le cas des fusions-acquisitions
A notre connaissance, seules cinq études portent sur les déterminants de la communication volontaire d’informations dans le cadre des fusions-acquisitions6. Les informations étudiées sont les estimations ou prévisions de résultats, les synergies et les informations divulguées lors des conférences téléphoniques. 5 Il s’agit de la publication volontaire du dirigeant sur son capital immatériel. L’effort informationnel dépend non pas de la quantité d’information mais de leur utilité, ce a nécessité au préalable une enquête de terrain auprès des acteurs du marché financier. 6 Brennan (1999 ; 2000) se focalise sur les OPA/OPE au sens strict. 1.2.1 Les déterminants de la publication volontaire d’estimations ou de prévisions de résultats
Concernant les fusions, Wandler (2007) consacre une partie de sa thèse à l’étude des déterminants de la publication volontaire d’estimations de résultats dans le document de fusion (« proxy-prospectus »). Ce document est commun aux deux sociétés engagées dans l’opération, initiatrice et cible. Wandler (2007) retient un échantillon composé de 28 fusions ayant eu lieu entre 2002 et 2003 qui concernent des entreprises cotées américaines. L’auteur distingue trois types d’informations : états financiers pro forma, estimations de résultats et prévisions de résultats. Le premier type regroupe des éléments devant être obligatoirement publiés dans le prospectus. Il s’agit d’informations financières portant sur le début de l’année concernée par la fusion jusqu’à la date de dépôt du document d’information. L’estimation de résultats fait en revanche partie des éléments volontairement présentés. Il s’agit dans ce cas d’estimer le résultat du nouveau groupe constitué pour la fin de l’année en cours (année de la fusion). Quant aux prévisions de résultats, elles concernent l’année post-fusion. C’est donc une différence de temporalité qui permet de distinguer l’ensemble de ces informations. Au niveau des résultats, il ressort de l’étude de Wandler (2007) que la solidité financière de la cible est un déterminant majeur de la publication d’estimations de résultats. Cette solidité financière est mesurée à l’aide du modèle de prédiction des faillites d’Altman (1968). Il s’agit d’un score égal à la moyenne pondérée de plusieurs ratios comptables. Ainsi un score élevé, témoignant d’une forte solidité financière, est un facteur incitatif à la publication d’estimations de résultats. Par ailleurs, une relation positive est également constatée entre la taille de la cible et la décision de publier volontairement des estimations de résultats. Enfin, la réputation de la banque souscripteuse influence négativement la probabilité d’une telle publication. D’après l’auteur, le but de la publication est davantage la réduction de l’asymétrie informationnelle actionnaires/dirigeants que la volonté d’influencer les décisions des actionnaires. L’étude de Wandler (2007) concerne les opérations de fusion. Pour le cas particulier des OPA/OPE, on compte deux études réalisées dans le contexte institutionnel du Royaume-Uni sur les prévisions de résultats : l’une sur l’entreprise cible (Brennan, 1999), l’autre sur l’entreprise acquéreuse (Brennan, 2000). Elles portent sur le même échantillon composé de 477 offres publiques amicales et 224 offres inamicales ayant eu lieu entre 1988 et 1992 sur le London Stock Exchange. Concernant l’étude de Brennan (1999), le seul déterminant ressortant comme significatif dans le cas des opérations amicales, est l’horizon temporel de l’offre (nombre de jours entre le dépôt de l’offre et la fin de la période de prévisions de la cible). Plus cet horizon diminue, plus la probabilité de publier volontairement des prévisions de résultats augmente. Cette relation négative est justifiée par le fait qu’un horizon temporel réduit entraîne un risque d’erreur plus faible dans les prévisions, ce qui favorise leur publication. A l’inverse, une erreur importante de prévision n’est pas dans l’intérêt du dirigeant car elle risque d’avoir une incidence négative sur sa réputation. On comprend alors l’intérêt de limiter ce risque d’erreur et ainsi favoriser la publication de prévisions de résultats lorsque l’horizon temporel est réduit Pour les opérations inamicales, il apparaît qu’une structure concentrée du capital favorise la publication volontaire de prévisions de résultats. Ce résultat est surprenant au regard de la théorie de l’agence selon laquelle une structure dispersée du capital est source de conflits 7 entre actionnaires et dirigeants et donc entraîne un besoin supplémentaire d’informations pour les propriétaires. Lorsque cette variable est exclue, la taille et le secteur d’activité ressortent comme significatifs. Autrement dit, plus la cible de l’offre publique est de taille importante, plus elle a tendance à effectuer ce type de publication. Il en est de même lorsqu’elle appartient au secteur des biens d’équipement. Enfin, la propension à diffuser des prévisions de résultats augmente lorsqu’elles sont favorables à la cible. Celle-ci cherche dans ce cas à communiquer sur ses propres performances en dénigrant celles de l’acquéreuse. Dans sa seconde étude, Brennan (2000) se concentre sur les déterminants de la publication volontaire de prévisions de résultats par l’entreprise acquéreuse. La probabilité d’une telle publication augmente lorsque l’horizon temporel diminue, synonyme d’un risque d’erreur moindre dans les prévisions. En cas d’offre inamicale, les dirigeants de l’acquéreuse sont incités à publier volontairement des prévisions de résultats. Il s’agit pour eux de prouver que leur gestion est bonne, de justifier l’opération et de dénigrer les résultats de la cible. En excluant la variable concernant la structure du capital (modèle réduit), Brennan (2000) trouve que le secteur d’activité mais également le moyen de paiement sont significatifs. Ainsi, les entreprises appartenant à l’industrie des biens durables et proposant un paiement en actions sont incitées à publier des prévisions de résultats. Concernant le paiement en actions, il semblerait que la publication volontaire de prévisions de résultats ajoute de la crédibilité quant à la valeur des actions qui vont être émises. Enfin, l’auteur suggère qu’une publication de prévision est d’autant plus probable qu’elle révèle une bonne nouvelle ou une relative mauvaise nouvelle. Pour résumer, les résultats des deux études de Brennan (1999 ; 2000) sont assez proches. L’horizon temporel de l’offre, le secteur d’activité et l’influence d’une bonne nouvelle apparaissent comme étant des déterminants de la communication aussi bien de la part de la cible que de l’acquéreuse. 1.2.2 Les déterminants de la communication volontaire d’informations sur les synergies
L’étude réalisée par Dutordoir et al. (2010) concerne les informations divulguées volontairement par le dirigeant de la société acquéreuse au sujet des synergies attendues de l’opération. L’échantillon est composé de 2794 annonces de fusions-acquisitions (dont 2396 effectives) qui ont eu lieu entre décembre 1995 et janvier 2008 par des sociétés cotées aux Etats-Unis. Les synergies attendues ont été le plus souvent divulguées par voie de communiqués de presse et lors de conférences téléphoniques. Les auteurs supposent que la décision de communiquer volontairement des informations sur les synergies attendues est liée aux caractéristiques de l’accord entre les deux firmes. Plus l’accord est complexe et difficile à apprécier par les actionnaires, plus la communication sur les synergies est nécessaire. Pour mesurer le degré de complexité de la transaction, différents proxies sont utilisés. La taille du groupe constitué à l’issue du rapprochement reflète la complexité de l’opération dans la mesure où plus grandes sont les entreprises, plus l’anticipation des synergies est difficile. Cette variable ressort comme un déterminant majeur de la communication volontaire sur les synergies. Ensuite, la méthode de paiement a également un impact significatif. Lorsque le paiement s’effectue en cash, les synergies paraissent plus « facilement » identifiables et mesurables. En revanche, le paiement en actions, plutôt choisi en cas de surévaluation de la société acquéreuse (Travlos, 1987), ne facilite pas l’estimation des synergies par les 8 actionnaires. Ainsi, plus la part du paiement en actions est forte, plus la probabilité d’une communication volontaire sur les synergies est importante. Dans la même lignée, la présence de clauses de sortie et la durée de réalisation de l’opération, signes de complexité, influence positivement une telle communication. A l’inverse, les sociétés acquéreuses communiquent moins sur les synergies quand elles ont des opportunités de croissance (représentées par le market-to-book ratio7), des avantages compétitifs importants ou que le secteur de la cible est dynamique. Ainsi, il y a prise en compte des coûts de propriété, c’est-à-dire de la valeur que peut avoir pour les concurrents, l’information communiquée. La performance de l’acquéreuse avant l’opération influence négativement la décision de communiquer sur les synergies attendues. Une performance préopération faible incite les dirigeants de la société acquéreuse à communiquer. Cela s’explique par la volonté de rassurer les actionnaires quant à l’impact de l’opération. Il apparaît d’ailleurs que la communication sur les synergies serait plutôt le fait d’entreprises sous-évaluées par apport aux entreprises du ou des secteur(s) auxquelles elles appartiennent. Enfin, dans une moindre mesure, la proportion d’actions détenue par le dirigeant de l’acquéreuse a un impact négatif sur la probabilité de communication. Lorsque le dirigeant détient une part importante du capital, les conflits avec les autres actionnaires sont moindres et le dirigeant a moins besoin de rendre compte de sa gestion. Ainsi, Dutordoir et al. (2010) concluent par un impact majeur de la complexité de l’accord et des coûts de propriété sur la décision du dirigeant de la société acquéreuse de communiquer sur les synergies escomptées. 1.2.3 Les déterminants de communication volontaire d’informations lors de conférences téléphoniques8
L’entreprise initiatrice peut décider, au moment de l’annonce de l’acquisition, de tenir une conférence téléphonique sur l’opération qu’elle réalise. Quels sont les déterminants d’un tel choix? A l’aide d’un échantillon de 1228 fusions-acquisitions ayant eu lieu aux Etats-Unis sur la période 2002-2006, Kimbrough et Louis (2011) montrent tout d’abord que la décision est positivement liée à la taille de l’opération ainsi qu’au paiement en actions. Les transactions financées par actions, étant généralement le fait d’acquéreuses surévaluées, engendrent un besoin supplémentaire d’influencer favorablement les investisseurs. Ce besoin est ici satisfait par le biais des conférences téléphoniques. Concernant la taille de la transaction, la notion de complexité est là encore utilisée pour justifier ce résultat. Ensuite, les auteurs constatent un impact positif de la taille de l’acquéreuse, de son appartenance au secteur de la haute technologie, du nombre d’analystes suivant le titre ainsi que de la présence d’investisseurs institutionnels. Enfin, est mise en exergue une relation inverse entre le marketto-book ratio et la décision de l’acquéreuse de tenir une conférence téléphonique. Il s’agit là de facteurs qui se sont avérés significatifs lors des études portant sur l’utilisation de conférences téléphoniques hors contextes spécifiques et dont les auteurs vérifient l’influence dans le cas des opérations de rapprochement. 7 Le market-to-book ratio correspond à la valeur boursière de l’entreprise sur sa valeur comptable. Les informations divulguées lors de ces conférences téléphoniques sont diverses et peuvent concerner les synergies attendues à l’issue du rapprochement. Pour résumer, la revue de la littérature a porté sur les déterminants de la communication volontaire d’informations en contextes spécifiques. Plus précisément, les cas des introductions en bourse et des fusions-acquisitions ont été étudiés (voir tableau 1). Parmi les déterminants de la communication volontaire, il apparaît que certains ne sont pas spécifiques (la taille, le secteur d’activité de l’entreprise ou encore la proportion d’actions détenue par le dirigeant) alors que d’autres sont liés aux opérations (les modalités de paiement, la taille de la transaction et son horizon temporel). 2. La formulation des hypothèses et le modèle explicatif
La présente recherche concerne la communication volontaire des entreprises cibles d’OPA/OPE. Nous avons choisi de nous focaliser sur les synergies divulguées dans les communiqués, articles de presse et comptes-rendus de conférences téléphoniques9. Il est en effet intéressant d’étudier la communication les concernant car elles sont le motif le plus souvent évoqué par les cibles pour justifier de la position à adopter face à l’acquéreuse (Husson, 1988 ; Chaterly-Lepers et Sassenou, 1994). Ces synergies sont généralement de trois ordres : industrielles et commerciales, financières et managériales. Sur un plan industriel et commercial, les synergies concernent le plus souvent des complémentarités entre les deux entités qui se rapprochent en termes géographiques, métiers et/ou produits et sont à l’origine d’économies d’échelle (Husson, 1987). Concernant les synergies financières, elles touchent à la réduction du risque économique (diversification des activités) et à l’optimisation de la capacité d’endettement. Enfin, les synergies managériales sont centrées sur la capacité d’innovation et l’expertise des dirigeants de l’initiatrice. La communication peut être de nature quantitative (synergies quantifiées) ou de nature qualitative et descriptive. Lors des opérations inamicales, le manque de synergies est souvent à l’origine d’un avis négatif de la cible. En témoigne le Directeur Général (DG) d’Arcelor, Guy Dollé, s’exprimant sur les synergies d’un milliard d’euros avancées par Mittal Steel pour justifier l’acquisition d’Arcelor : « Je ne vois pas où il les trouve. Le seul élément connu du plan de Mittal Steel aujourd'hui, c'est de vendre Dofasco à ThyssenKrupp. Ce qui représenterait une leur synergétique négative pour les actionnaires »10. A l’inverse, de fortes synergies anticipées sont fréquemment évoquées pour illustrer un avis positif. Par exemple, Dominique Bouvier, DG d’Entrepose Contracting, déclarait à propos du rapprochement avec Vinci : « Les synergies métier sont fortes : Vinci nous apporte ses compétences en génie civil. Face à des projets de taille de plus en plus importante et des installations de plus en plus complexes, un adossement était nécessaire, le choix de Vinci était le meilleur pour nous »11. Quels sont les déterminants de la communication volontaire des entreprises cibles au sujet des synergies? C’est à cette question que nous tentons de répondre. Pour ce faire, les hypothèses sont tout d’abord exposées (2.1) puis le modèle explicatif est décrit (2.2). 9 Segretain (2006) constate une absence d’informations sur les synergies dans la note d’information. Il définit ces synergies comme des économies ou recettes supplémentaires permises par la mise en commun des moyens conjugués des deux firmes.
10 Le Monde du 11 février 2006. 11 AGEFI quotidien du 4 septembre 2007. Tableau 1 : Synthèse des études portant sur les déterminants de la communication volontaire en contextes spécifiques Objet de la recherche
Auteurs Prévisions de résultats
Bilson, Heaney, Powell, Shi (2003) Clarkson, Dontoh, Richardson, Sefcik (1992) Cazavan-Jeny, Jeanjean (2007)
Caractéristiques de l’échantillon Impact significatif sur la communication volontaire d’information Introductions en bourse Prévisions de résultats Niveau d’information prévisionnelle 154 introductions en bourse de 1991 à 1997, Australie 121 introductions en bourse de 1984 à 1987, Canada Age (+), variabilité historique résultats (-) Bonne nouvelle (+) 82 introductions en bourse Age (+), Horizon prévision (+) de 2000 à 2002 sur le nouveau et second marché, France Niveau Bukh, Nielsen, 68 introductions en bourse Proportion d’actions détenues par d’information sur le Gormsen, de 1990 à 2002, Danemark dirigeant (+), secteur haute technologie capital immatériel Mouritsen (2005) (+) Niveau de l’effort Bejar (2006) 107 introductions en Cession d’actions par le dirigeant (-), informationnel sur bourse sur le Nouveau et réputation auditeur (-), niveau le capital immatériel le Second marché de 1997 endettement (-), âge (+), réputation à 2004, France banque introductrice (+) Niveau Sing, Van der 444 introductions en Rétention d’actions par les propriétaires d’information sur le Zahn (2008) bourse de 1997 à 2006, d’origine (+), coûts de propriété (-), capital immatériel Singapour réputation banque introductrice (+), endettement (+), âge (+), taille de l’offre (-) Fusions-acquisitions
Estimations de résultats Wandler (2007) Prévisions de résultats Brennan (1999) Prévisions de résultats Brennan (2000) Informations sur les synergies Dutordoir, Roosenboom, Vasconcelos (2010) Conférences téléphoniques Kimbrough, Louis (2011) 28 fusions de 2002 à 2003, Solid
financière de l’acquéreuse (+), Etats-Unis taille de la cible (+), réputation banque souscripteuse (-) 701 cibles d’une offre ▪ Offres amicales : horizon temporel (-) publique entre 1988 et ▪ Offres hostiles : structure concentrée (+) 1992, Royaume-Uni Taille (+) et secteur biens d’équipement (+) pour le modèle réduit 701 entreprises ▪ Offre hostile (+), acquéreuses entre 1988 et Horizon temporel (-) ▪ OPE (+), secteur biens durables (+) pour 1992, Royaume-Uni le modèle réduit 2794 fusions-acquisitions ▪ Complexité de l’opération : Taille de 1995 à 2008, Etatstransaction (+), paiement en actions (+), Unis clauses de sortie (+), durée de réalisation (+) ▪ Coûts de propriété : market to book ratio (-), avantages compétitifs de l’acquéreuse (-), dynamisme de la cible (-) ▪ Autres : performance de l’acquéreuse (), proportions d’actions détenues par le dirigeant de l’acquéreuse (-) 1228 fusions de 2002 à Taille acquéreuse (+), secteur haute 2006, Etats-Unis technologie (+), nombre d’analystes suivant le titre (+), présence d’investisseurs institutionnels (+), taille de la transaction (+), paiement en actions (+), market-to-book ratio (-) 11
2.1 Les hypothèses
Deux séries d’hypothèses sont formulées au sujet des déterminants de la communication volontaire (synergies) des cibles. 2.1.1 Les hypothèses relatives aux caractéristiques de l’offre
Les caractéristiques de l’offre sont : le type amical ou hostile de l’opération, le mode de paiement et le montant de la prime. • Le type d’offre publique A l’instar de Brennan (1999), nous supposons une influence du type d’offre (amical ou inamical12) sur la communication volontaire de la cible. Selon Morck et al. (1989), les offres publiques hostiles sont le plus souvent disciplinaires alors que les amicales sont plutôt à but synergique. Dans le premier cas, le taux de remplacement du dirigeant est particulièrement élevé, surtout en cas de faibles performances (Martin et McConnell, 1991). L’offre publique hostile est donc caractérisée par des attaques sur la performance du dirigeant de la cible. Brennan (1999) montre ainsi que la publication volontaire de prévisions de résultats a tendance à avoir lieu lorsque l’offre est controversée et non consensuelle. Cette publication constituerait pour les dirigeants de la cible un moyen de répondre aux attaques et/ou d’insister sur le caractère exceptionnel des faibles performances constatées. Concernant la communication volontaire d’informations sur les synergies, nous supposons que celle-ci aura plus souvent lieu en cas d’offres publiques inamicales. En effet, les offres amicales étant majoritairement à but synergique (Morck et al. 1989), il est probable que les synergies anticipées soient connues car au cœur même de l’opération. En revanche, lorsque l’offre est inamicale, nous supposons que le dirigeant de la cible est incité à remettre en cause les synergies avancées pour justifier son opposition à l’opération. Ainsi, l’hypothèse 1 est formulée : H1 : Le type inamical de l’offre influence positivement la décision de la cible de communiquer des informations sur les synergies. • Le moyen de paiement
Pour Dutordoir et al. (2010), la publication volontaire d’informations sur les synergies est liée à la complexité de l’offre. Le paiement en actions, rendant l’évaluation des synergies difficile par les actionnaires, est source de complexité et incite de ce fait à publier des informations supplémentaires. Ainsi, la probabilité de communiquer des informations sur les synergies devrait être plus forte lorsque l’offre est réalisée par échange de titres. Ceci est d’autant plus vrai que les actionnaires de la cible bénéficieront pleinement des synergies futures une fois l’opération réalisée, d’où l’intérêt de communiquer volontairement de l’information à ce sujet pour les inciter à accepter l’offre. Dans le cadre d’un paiement en cash (OPA), les actionnaires bénéficient également des synergies au travers des termes de l’offre (notamment la prime offerte) puisque ceux-ci sont sensés refléter le niveau de synergies attendues (Travlos, 1987). Une telle communication devrait donc être visible également lors de ce type 12 Seront employés indifféremment les termes inamical et hostile pour désigner une telle offre. 12 d’opération. Cependant, au vu de la difficulté d’évaluation des synergies dans le cas d’un paiement en actions, nous supposons que ce type d’offre incite à communiquer davantage sur les synergies futures. L’hypothèse 2 est ainsi formulée de la façon suivante : H2 : Le paiement en actions influence positivement la décision d’une communication volontaire sur les synergies par la cible.
• Le montant de la prime
Le montant de la prime versée n’a pas fait l’objet d’étude préalable. Brennan (1999 ; 2000) n’inclut par exemple pas ce déterminant dans ses travaux. Nous supposons ici que la probabilité de communiquer des informations sur les synergies est d autant plus grande que le montant de la prime est faible ; la volonté sous-jacente étant d’augmenter cette dernière. L’exemple de l’OPA inamicale lancée par Sanofi-Synthélabo sur Aventis en 2004 permet d’illustrer notre propos. Pour contre-attaquer la volonté d’acquisition de Sanofi-Synthélabo, Aventis met en avant le caractère dangereux du « médicament » proposé par SanofiSynthélabo, c’est à dire l’OPA. La presse se fait ainsi l’écho d’un certain nombre de « contreindications » avancées par Aventis : « attention, ce médicament peut provoquer d’importants troubles de la croissance » ou encore « attention, ce médicament peut causer la disparition de milliers d’emplois. » En réponse, Sanofi-Synthélabo justifie son action : « Construire un leader de la santé. Avec nous ça devient possible » ou encore « Avoir durablement une croissance supérieure au marché. Avec nous ça devient possible. » Comme le souligne Albouy (2005), les multiples négociations ont finalement conduit à un relèvement de la prime proposée aux actionnaires d’Aventis et les « contre-indications » du produit OPA finirent par disparaître. Les termes de l’offre, et notamment le montant de la prime, sont sensés refléter le niveau des synergies attendues (Travlos, 1987). Si la prime proposée est faible au regard des synergies anticipées, les actionnaires de la cible seront la plupart du temps réticents à l’offre. Il en résulte que la publication volontaire par la cible d’informations sur les synergies pourrait avoir pour but d’inciter l’acquéreuse à augmenter la prime, notamment en cas d’opération hostile. Lorsque l’offre est amicale, communiquer sur les synergies pourrait permettre aux dirigeants de la cible de justifier le bien fondé de l’opération. D’où l’hypothèse 3. H3 : Il existe une relation négative entre le montant de la prime et la communication volontaire sur les synergies par la cible. Outre les caractéristiques de l’ , nous supposons que des variables spécifiques à la cible peuvent influencer sa communication volontaire. 2.1.2 Les hypothèses relatives aux caractéristiques de l’entreprise cible
En référence aux déterminants de la publication volontaire dans les rapports annuels, nous étudions le degré de propriété du dirigeant, la part de capital détenue par l’acquéreuse, la dispersion du capital, le cumul des fonctions de directeur général et de président du conseil d’administration, la taille, le nombre d’analystes financiers suivant le titre et l’éloignement géographique entre la cible et l’acquéreuse.
13 • Le degré de propriété du dirigeant
Selon la théorie de l’agence (Jensen et Meckling, 1976), un nombre élevé d’actions détenues par les dirigeants aligne leurs intérêts sur ceux des actionnaires, entraînant ainsi une diminution des conflits d’intérêt et donc des coûts d’agence. Dans une telle situation, Eng et Mak (2003) et Ghazali et Weetman (2006) ont montré que le dirigeant fournit un niveau moindre d’informations dans le rapport annuel. Dutordoir et al. (2010) confirment ce résultat dans le contexte des fusions-acquisitions en mettant en exergue une relation négative entre la proportion d’actions détenue par le dirigeant et la communication volontaire sur les synergies. Nous supposons donc une relation inverse entre la participation du dirigeant dans le capital de la cible et la communication volontaire sur les synergies. Un dirigeant qui détient une part importante de capital ne sera pas incité à communiquer volontairement sur les synergies dans la mesure où il ne cherchera pas à influencer les actionnaires. En effet, la probabilité de réussite d’une opération est une fonction inverse du pourcentage d’actions détenues par le dirigeant de la cible (Stulz, 1988). D’où l’hypothèse suivante.
H4 : Il existe une relation négative entre la proportion d’actions détenue par le dirigeant de la cible et la communication par cette dernière d’informations sur les synergies. • La part de capital détenue par l’acquéreuse
Avant une OPA/OPE, il est relativement fréquent que l’initiatrice acquiert un nombre plus ou moins important d’actions de la cible. Cette acquisition partielle est motivée par la volonté de l’acquéreuse de s’assurer du contrôle de la cible. Plusieurs études se sont intéressées aux conséquences de ces acquisitions partielles tant sur la prime que sur le résultat de l’offre (Shleifer et Vishny, 1986 ; Hirshleifer et Titman, 1990 ; Sudarsanam, 1995). En revanche, aucune étude ne traite de cet aspect en tant qu’incitation ou frein à la communication de la cible. Nous supposons ici un impact négatif du degré de propriété de l’acquéreuse sur la communication de la cible. Autrement dit, la probabilité de communiquer sur les synergies est d’autant plus faible que la proportion de capital de la cible détenue par l’acquéreuse augmente. En effet si la détention d’actions de la part de l’acquéreuse résulte d’un processus de rapprochement antérieur, il est possible que les synergies soient déjà connues et dans ce cas la communication en la matière n’est pas indispensable. D’où l’hypothèse suivante : H5 : il existe une relation négative entre la part de capital détenue par l’acquéreuse et la communication volontaire par la cible d’informations sur les synergies. • La dispersion du capital
Lorsque la dispersion du capital est importante, le comportement du dirigeant est difficilement contrôlable en raison d’une forte asymétrie informationnelle et la communication volontaire d’informations est un moyen de limiter les comportements opportunistes. De plus, la multiplicité des actionnaires aux exigences multiples est susceptible d’accroître le niveau demandé et donc produit d’informations volontaires. A l’inverse, lorsque le capital est peu dispersé, il est plus facile de communiquer l’information de manière privée, ce qui permet d’éviter les coûts liés à une publication. L’incidence de la dispersion du capital sur la publication volontaire d’informations dans le rapport annuel a été vérifiée par Hossain et al. (1994) puis par Chau et Gray (2002). Dans un contexte d’OPA/OPE, la dispersion du capital peut également influer sur la décision de communiquer volontairement des 14 informations sur les synergies. Nous supposons que lorsque la dispersion du capital est faible (i.e. lorsqu’un actionnaire seul ou de concert détient une part élevée du capital), l’initiateur de l’offre peut directement rencontrer le ou les actionnaire(s) majoritaire(s) afin de négocier avec eux. Il s’ensuit que communiquer sur les synergies n’est pas nécessaire, contrairement au cas où le capital est fortement dispersé, d’où l’hypothèse 6. H6 : Il existe une relation positive entre la dispersion du capital de la cible et la communication volontaire par cette dernière d’informations sur les synergies.
| 28,775
|
32/dumas.ccsd.cnrs.fr-dumas-02484765-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,619
| 11,561
|
Les comportements ont été classées en 4 catégories, selon leur mode d'entrée dans le système de soins, les résultats sont présentés sur les figures 5 et 6 :
Figure 5 : Comportement en situation – 100 réponses
40,
00%
37,00% 26,00% 17,00% 8,00% 12,00% 0,00% Recours à la PDS par Recours à la PDS par Recours à la PDS par Recours à un avis Absence de recours à la régulation SOS Médecins un autre moyen médical en dehors de un avis médical médicale la PDS 28
Figure 6 : Comportement en situation – parcours de soins
Dans les situations racontées, au total 54% des personnes interrogées ont eu recours à la PDS pour un problème de médecine générale, en horaire de PDS, en passant par un des deux points d'accès prévus : la régulation médicale ou SOS Médecins. 8% des personnes ayant eu recours à un avis médical ont pu voir le médecin généraliste de garde sans passer par le système habituel. Ces personnes ont pu savoir quel médecin était de garde en sollicitant d'autre sources, sans passer par la régulation médicale : le pharmacien était au courant, la gendarmerie a donné l'information, un ami médecin généraliste a donné l'information. Voici les résultats de l'analyse de cette question en fonction de la zone de résidence (Figure 7) :
Figure 7 : Comportement en situation en fonction de la zone de résidence – 100 réponses 80,0% 70,0%
60
,
0% 50,0% 40,0% 30,0% 20,0% 10,0% 0,0% 73,1% 46,2% 15,4% 53,3% 45,8% 23,1% 7,7% 7,7% Anglet 11,5% 11,5% 3,9% Baigorry 8,3% 40,0% 36,4% 27,3% 18,2% 18,2% 25,0% 16,7% 4,2% 6,7% Biarritz Saint Palais Sud Landes Recours à la PDS par la régulation Recours à la PDS par SOS médecin Recours à la PDS par un autre moyen Recours à un avis médical en
hors de la PDS Absence de recours à un avis médical 29
On remarque que trois groupes se dessinent : - La zone de Baigorry avec une forte proportion de recours à la régulation médicale, - Les zones de Saint Palais et du Sud Landes avec une proportion moyenne, - Les zones du BAB (Anglet et Biarritz) avec une faible proportion. 2. L'intention de comportement en PDS
Dans la seconde partie du questionnaire, les sujets étaient interrogés sur leur intention de comportement, face à un problème de santé hypothétique, relevant de la médecine générale en horaire de PDS. Les figures 8 à 10 présentent ces résultats. Les réponses possibles étaient : - Vous patienteriez jusqu'à la réouverture du cabinet de votre médecin traitant - Vous vous rendriez aux urgences - Vous appelleriez SOS Médecins - Vous appelleriez le Samu-Centre15 - Vous appelleriez les pompiers - Vous appelleriez un pharmacien - Autre Les répondants pouvaient cocher plusieurs réponses. Les réponses ont été classées selon leur cohérence avec l'offre de soins de PDSA dans la zone géographique concernée et selon le respect de la filière de soins. Les réponses « vous appelleriez le Samu-Centre15 » et « vous appelleriez SOS Médecins » étaient considérées comme recommandées dans les zones de Anglet et Biarritz. Seule la réponse « vous appelleriez le Samu-Centre15 » étaient considérée comme recommandée dans les autres zones. Comme pour la première partie, il était bien précisé : pour un problème de santé qui vous inquiète et pour lequel vous auriez appelé votre médecin traitant si ce problème de santé s'était présenté en journée.
Figure 8 : Intention de comportement en période de PDS – 200 réponses 60,00%
53,50% 24,50% 20,00% 13,50% 8,50% 10,00% 0,00% Recours à la PDS par la régulation médicale Recours à la PDS par SOS médecin Attitude non recommandée Absence de recours à un avis médical 30
Une majorité de personnes interrogées n'aurait pas une attitude recommandée pour un problème de santé relevant de la médecine générale lors de la fermeture des cabinets de médecine générale. Voici les résultats de l'analyse de cette question en fonction de la zone de résidence :
Figure 9 : Intention de comportement en période de PDS, en fonction de la zone de résidence – 200 réponses 70,0%
60,0% 50,0% 40,0% 37,5% 40,0% 55,0% 10,0% 52,5% 42,5% 37,5% 27,5% 30,0% 15,0% 20,0% 62,5% 60,0% 10,0% 7,5% 25,0% 15,0% 10,0% 2,5% 0,0% Anglet Baigorry Biarritz Saint Palais Sud Landes Recours à la PDS par la régulation médicale Recours à la PDS par SOS médecins Attitude non recommandée Absence de recours à un avis médical
Dans les zones de Baigorry, de Saint-Palais et du Sud Landes plusieurs personnes ont dit qu'elles feraient appel à SOS Médecins, cette réponse a été considérée comme « non recommandée » car la zone n'est pas couverte par SOS Médecins. Cette réponse a été évoquée 8 fois à Capbreton dans les Landes, 3 fois à Baigorry et 1 fois à Saint-Palais. On peut voir dans le graphique ci-dessus que les zones de Baigorry et du Sud Landes ont la plus forte proportion de recours à la PDS adaptée, via la régulation médicale. Si on combine les réponses considérées comme recommandées, soit l'accès à la PDS via la régulation médicale ou via SOS Médecins en direct, on obtient le graphique suivant :
Figure 10 : Intention de comportement en période de PDS, attitude recommandée ou non recommandée, en fonction de la zone de résidence – 200 réponses 70,00% 60,00%
50,00% 40,00% 55,00% 47,50% 37,50% 42,50% 60,00% 52,50% 37,50% 37,50% 30,00% 20,00% 62,50% 25,00% 15,00% 10,00% 10,00% 15,00% 2,50% 0,00% Anglet Attitude recommandée Baigorry Biarritz Attitude non recommandée Saint Palais Sud Landes Absence de recours à un avis médical 31
Nous avons réalisé une comparaison entre les résultats des comportements en situation et les ré des intentions de comportement. Les résultats sont présentés dans le graphique suivant (figure 8) :
Figure 11 : Comparatif entre l'intention de comportement et le comportement en situation,
en période de PDS
00% 53,50% 50,00% 37,00% 40,00% 30,00% 34,00% 24,50% 20,00% 13,50% 17,00% 8,50% 10,00% 12,00% 0,00% Recours à la PDS par la régulation Recours à la PDS par SOS Recours à un avis médical Absence de recours à un médecin par un autre moyen avis médical Intention de comportement Comportement en situation
De plus, nous avons détaillé les intentions de comportements déclarées en fonction du comportement en situation. III. Comportement en situation et intention de comportement le samedi matin 1. Comportement en situation le samedi matin
Le graphique ci-dessous présente les résultats concernant la dernière fois où la personne interrogée a eu besoin d'une consultation le samedi matin. 134 personnes ont déclaré ne pas avoir eu besoin d'une consultation un samedi matin. Les réponses possibles étaient les mêmes que pour la période de PDS. Les comportements décrits ont ensuite été classés selon la cohérence avec l'offre de soins, les résultats sont présentés sur la figure 13 :
Figure 13 : Comportement en situation, le samedi matin – 66 réponses
Consultation du médecin traitant Recours direct à SOS médecins Recours à un avis médical par un autre moyen Absence de recours à un avis médical 0,00% 65,15% 6,06% 12,12% 16,67% 20,00% 40,00% 60,00% 80,00%
Au total, dans la situation racontée, 71,21% des personnes interrogées ont eu recours à un avis médical par une voie recommandée le samedi matin. Le recours à un avis médical par un autre moyen regroupe les attitudes non recommandées le samedi matin : aller directement aux urgences et appeler le SAMU-Centre 15. 2. L'intention de comportement le samedi matin
Dans la seconde partie du questionnaire, il était demandé quel serait le comportement de la personne interrogée si ce problème arrivait le samedi matin, toujours pour un problème de médecine générale. Comme pour la partie en période de PDS, les réponses ont été classées selon leur cohérence avec l'offre de soins. Les résultats sont présentés sur les figures 14 et 15. La réponse « vous appelleriez votre médecin traitant » était acceptée comme adaptée à l'offre de soins. En plus, dans les zones de Anglet et Biarritz, le recours à SOS Médecins était mis à part car même si les cabinets de médecine générale sont ouverts, ce n'est pas une erreur de faire appel à eux un samedi matin. 33 (À noter que 2 personnes n'ont pas répondu à cette question)
Figure 14 : Intention de comportement, le samedi matin - 198 réponses
Consultation du médecin traitant Recours direct à SOS médecins 58,08% 8,08% Recours à un avis médical par un autre moyen Absence de recours à un avis médical 29,79% 5,05% 0,00% 20,00% 40,00% 60,00% 80,00%
Figure 15 : Intention de comportement, le samedi matin, en fonction des zones de résidence 80,0%
70,0% 60,0% 50,0% 40,0% 30,0% 20,0% 10,0% 0,0% 75,0% 59,0% 55,0% 43,6% 28,2% 15,4% 12,8% Anglet 12,5% 2,5% Baigorry 40,0% 35,9% 30,0% 22,5% 57,5% 5,1% 2,5% Biarritz 2,5% Saint Palais Sud Landes Consultation du médecin traitant Recours à SOS médecins Recours à un avis médical par un autre moyen Absence de recours à un avis médical
Dans toutes les zones, une majorité des personnes interrogées disent avoir l'intention de recourir à leur médecin traitant le samedi matin. Si on ajoute ceux qui font appel à SOS Médecins, on tient un taux de 66,16% des personnes interrogées qui ont une attitude recommandée le samedi matin. Nous avons ensuite réalisé une comparaison entre les comportements en situation et les intentions de comportement (figure 16). A eu recours à son médecin traitant (42) 81% A eu recours à SOS Médecins (4) 19% 25% A eu recours aux urgences (8) 75% 38% N'a pas eu recours à un avis médical (11) 63% 45% N'a pas eu de demande de soins non programée un samedi matin (133) 54% 18% 8% 27% 9% 31% 7% Intention de comportement Recours au médecin traitant Recours à SOS médecins Attitude non recommandée Absence de recours à un avis médical
A la fin du questionnaire il était demandé si le cabinet de leur médecin traitant est ouvert le samedi matin (figures 18 et 19) :
Figure 18
:
"Selon vous, est-ce que le cabinet de votre médecin traitant est ouvert le samedi matin?
"
- 200
réponses 24,50%
55,50% 20,00% Oui
Non Ne
sait
pas 35
Figure 19 : Connaissance de l'ouverture du cabinet du médecin traitant selon la zone de résidence 80,00%
70,
00%
60
,00%
67,50% 57,50% 50,00% 25,00% 27,50% 20,00% 20,00% 10,00% 10,00% 52,50% 42,50% 30,00% 22,50% 17,50% 20,00% 50,00% 7,50% 0,00% Anglet Baigorry Biarritz Oui Non Saint Palais Sud Landes Ne sait pas
Les résultats sont variés. A Saint Palais, les personnes interrogés sont 42,50% à ne pas savoir si le cabinet de leur médecin est ouvert le samedi matin, alors qu'ils sont 17,5% à Anglet.
IV. Connaissance du système de PDS 1. Définition
Il était demandé dans le questionnaire de donner une définition de la permanence des soins. Il s'agissait d'une question ouverte, les réponses ont été condensées et présentées sur la figure 20 :
Figure 20 : Définition de la PDS – 200 réponses
Réponse non adaptée 17% Ne sait pas 26% C'est pour les urgences 5,50% Accès aux soins 24h/24 et 7j/7 40,50% Organisation de la continuité des soins en dehors des horaires d'ouverture des cabinets médicaux 11% 0% 5% Seulement 11% des personnes interrogées ont donné une définition correspondant à la réalité. 36 Rôle du SAMU-Centre 15
Les sujets ont été interrogés sur la signification pour eux d'un appel au SAMU-Centre 15. Plusieurs réponses étaient possibles (les résultats présentés dans le tableau 6) : - Appel pour une urgence vitale - Appel pour une urgence relative - Appel pour un conseil médical - Soutien en cas de détresse psychologique - Aide à l'interprétation d'analyse biologique - Autre - Ne sait pas
Tableau 6 : : "Selon vous, que signifie le numéro d'appel 15?" Rôle du SAMU Appel uniquement pour une urgence vitale Appel pour une urgence vitale ou relative Appel pour une urgence vitale ou pour un conseil médical Ne sait pas Appel pour une urgence vitale ou un soutien en cas de détresse psychologique Appel pour une urgence vital ou relative ou pour un conseil médical Appel pour une urgence vital ou relative ou pour un conseil médical ou pour un soutien en cas de détresse psychologique Appel pour une urgence vitale ou pour un conseil médical, Soutien en cas de détresse psychologique Appel pour une urgence vitale, Appel pour une urgence relative, Soutien en cas de détresse psychologique Appel pour un conseil médical Appel pour une urgence vitale ou relative ou pour un conseil médical, Soutien en cas de détresse psychologique, Aide à l'interprétation d'analyse biologique Appel pour une urgence relative Appel pour une urgence relative, Appel pour un conseil médical, Soutien en cas de détresse psychologique Appel pour une urgence vitale ou relative, Soutien en cas de détresse psychologique, Aide à l'interprétation d'analyse biologique Total général Nb 92 31 22 18 % 46,00% 15,50% 11,00% 9,00% 9 4,50% 7 3,50% 5 2,50% 3 1,50% 3 1,50% 3 1,50% 3 1,50% 2 1,00% 1 0,50% 1 0,50% 200 100,00%
On peut noter que 9% ont répondu ne pas savoir quel est le rôle du SAMU-Centre 15. Près de la moitié des personnes interrog ées (46%) pensent que le SAMU-Centre 15 n'est que pour les urgences vitales. Le graphique suivant (Figure 22) présente les résultats de la question « selon vous, quel est le premier interlocuteur sur lequel vous tombez en appelant le SAMU-Centre 15? » 37
Figure 21 : « selon vous, quel est le premier interlocuteur sur lequel vous tombez en appelant le Samu-Centre 15?» 60,00% 52,50% 50,00% 40,00% 32,00% 30,00% 20,00% 12,50% 10,00% 1,50% 1,50% Médecin régulateur généraliste Autre (pompier) 0,00% Assistant de régulation médicale / personne qui gère l'orientation des appels Médecin régulateur urgentiste Ne sait pas 52,
50% des personnes interrogées
ont donné la bonne réponse
concern
ant le premier interlocuteur
d
'un
appel
au S
AMU
-Centre
15.
3. Connaissance du moyen d'accès au médecin généraliste de garde (MGG)
Il s'agissait ici d'une question ouverte : « selon vous, quel est le moyen pour joindre le médecin généraliste de garde de votre secteur? ». Les réponses ont été classées selon leur validité, pour permettre ou non un accès au médecin généraliste de garde. Les résultats
sont présentés sur la figure 23 :
Figure 22 : Validité de la méthode pour accéder au MGG 38,50%
61,
50% Oui Non Une majorité des personnes interrogées ne sait pas comment joindre le médecin généraliste de garde ou a cité une méthode ne permettant pas d'y arriver (figure 24), comme : - Regarder sur Internet (27 réponses soit 38,08% des méthodes non valides évoquées) - Appeler le 17 / demander à la gendarmerie / au commissariat de police ou appeler le 18 / demander aux pompiers (20 réponses soit 28,17%) - Regarder dans le journal (18 réponses soit 25,35% des réponses non valides) - Demander au pharmacien / regarder sur la porte de la pharmacie (6 réponses soir 8,45%)
38 Figure 23 : Méthodes non valides pour accéder au MGG
Chercher l'information sur internet 38,03% Demander au commissariat / gendarmerie / pompiers 28,17% Regarder dans le journal Demander au phamacien 0,00% 25,35% 8,45% 10,00% 20,00% 30,00% 40,00%
Les méthodes qui étaient acceptées comme valides (figure 25) sont : - Appeler le 15 ou le 112 (43 réponses, soit 55,84% des méthodes valides) - Appeler le répondeur du médecin traitant pour avoir la conduite à tenir en son absence (21 réponses, soit 27,27%) - Appeler SOS Médecins (pour les zones de Anglet et Biarritz) (13 réponses, soit 16,88%)
Figure 24 : Méthodes valides pour accéder au MGG
Faire le
15
ou le 112 55,84% Appeler le répondeur du médecin traitant 27,27% Appeler SOS médecins 0,00% 16,88% 10,00% 20,00% 30,00% 40,00% 50,00% 60,00%
Les personnes ayant répondu « ne sait pas » représentent 26% du total (52 réponses) Les résultats de cette question ont ensuite été croisés avec les résultats des questions précédemment évoquées : le comportement en situation, l'intention de comportement et la zone de résidence. Les graphiques suivants présentent ces résultats (figures 25 à 28) :
Ø Évaluation des connaissances selon le comportement en situation Figure 25 : Validité de la méthode pour accéder au MGG en fonction du comportement en situation 100,0% 80,0% 60,0% 40,0% 20,0% 0,0% 78,38% 67,00% 33,00% 21,62% N'a pas eu de situation de médecine générale en horaire de PDS 84,62% 75,00% 70,59% 29,41% 25,00% 66,67% 33,33% 15,38% Recours à la PDS Recours à la PDS Recours à la PDS Recours à un avis Absence de par la régulation par SOS médecins par un autre médical en recours à un avis médicale moyen dehors de la PDS médical OUI (= sait comment accéder au MGG) NON (= ne sait pas comment accéder au MGG)
Le groupe de personne ayant eu recours à la PDS par la régulation médicale est le seul à avoir en majorité cité une méthode d'accès au MGG valide à 78,38%.
Ø Évaluation des connaissances selon l'intention de comportement
Figure 26 :
Validité
de la
méthode pour accéder au MGG en fonction de l'intention de comportement 80,0% 60,0% 40,0% 20,0% 0,0% 65,3% 72,0% 63,0% 37,0% 34,7% Recours à la PDS par la régulation médicale 29,4% 28,0% Recours à la PDS par SOS médecins OUI (= sait comment accéder au MGG) 70,6% Attitude non recommandée Absence de recours à un avis médical NON (= ne sait pas comment accéder au MGG)
Comme dans le graphique précédant, les personnes ayant l'intention d'avoir recours à la régulation médicale sont les seules à avoir en majorité cité une méthode valide à 65,3%
Ø Évaluation des connaissances selon la zone géographique
Figure 27 : Validité de la méthode pour accéder au MGG en fonction de la zone de résidence 100,0%
50
,
0% 65,0% 35,0% 77,5% 67,5% 32,5% 22,5% 70,0% 62,5% 30,0% 5% Saint Palais Sud Landes 0,0% Anglet Baigorry Oui(= sait comment accéder au MGG) Biarritz Non (= ne sait pas comment accéder au MGG) On peut constater que seule la zone de Baigorry présente une majorité de personnes interrogées sachant comment accéder au médecin généraliste de garde. Ø Évaluation des connaissances selon une précédente utilisation du système de PDS
Figure 28 : Validité de la méthode pour accéder au MGG en fonction d'une précédente utilisation de la PDS
100,00% 71,33% 63,16% 36,84% 50,00% 28,67% 0,00% A déjà eu recours à la PDS N'a jamais eu recours à la PDS Oui (= sait comment accéder au MGG) Non (= ne sait pas comment accéder au MGG) On constate qu'il y a un lien entre le fait d'avoir déjà eu recours
à la PDS
et
le fait
d'évoquer une
méthode
valide pour acc
éder
au MGG. 4. Demande d'information par le public
Il s'agissait ici d'une question fermée : « vous estimez-vous suffisamment informé concernant l'attitude à adopter et les démarches à suivre en cas de problème médical en l'absence de votre médecin traitant ». Les résultats sont présentés sur la figure 29.
Figure 29 : "Vous estimez-vous suffisamment informé concernant la PDS?" 42,
50%
57,50%
Oui Non Une majorité des personnes interrogées se considère suffisamment informée sur les démarches à suivre et l'attitude à adopter en cas de problème de santé, en l'absence de son médecin traitant. PARTIE IV : DISCUSSION I. Réponse à la problématique
Nous avons réalisé ce travail de thèse afin de répondre à la question : quelle connaissance a le public de l'organisation de la Permanence Des Soins? Nous pouvons conclure que la population ne connait pas suffisamment le système de PDS, et en a donc une mauvaise utilisation. 61,5% des personnes interrogées ne savent pas comment joindre le médecin généraliste de garde, 53,5% a l'intention d'avoir un comportement non recommandé pour un problème de médecine générale en horaires de PDS. De plus, 82% des personnes ayant été confrontées à une situation de demande de soins non programmés ont l'intention d'avoir la même attitude la prochaine fois (même si ce n'était pas la bonne), et près de 60% se considèrent bien informées sur le système. Il y a donc des progrès à faire pour améliorer la connaissance et l'utilisation du système.
II. Points forts et limites méthodologiques 1. Points forts méthodologiques a) Fiabilité du protocole
L'administration du questionnaire par le même enquêteur permet de garantir la stabilité de la présentation du questionnaire. Nous avions choisi a priori, d'administrer le même nombre de questionnaire par zone prédéfinie. Afin d'obtenir 200 questionnaires au total, il avait été décidé de rester dans chaque pharmacie le temps nécessaire pour obtenir 40 questionnaires. Cela a permis d'éviter les perdus de vue et les questionnaires mal remplis. L'analyse des données et la condensation des réponses aux questions ouvertes ont été faites de manière cohérente au fil du travail avec validation du directeur de thèse. b) Le choix du recueil en pharmacie permet de diversifier la population source tout en gardant un terrain paramédical qui facilite le recueil, tant pour l'enquêteur que pour le sujet interrogé. Nous avons choisi ces pharmacies afin de couvrir un maximum de diversité du territoire en termes d'offre de soins avec la présence ou non de SOS Médecins, différents horaires d'effection du médecin de garde, la proximité et accessibilité des urgences, ce dernier critère nous a amenés à varier les zones géographiques. 42 La sélection des sujets s'est faite de manière aléatoire, le questionnaire était proposé à chaque personne qui rentrait dans la pharmacie, soit dans la file d'attente, soit lorsque la personne était au comptoir. Dès que j'avais fini d'administrer un questionnaire, je le proposais à la personne suivante. Le taux de répondants n'a pas été calculé précisément, mais en moyenne 5 personnes par jour refusaient de répondre au questionnaire. Nous avions choisi des zones différentes par leur géographie, leur démographie et leur offre de soins. Il s'agit d'un mode de recueil des données novateur pour une thèse de médecine générale. Ce choix a permis de maximiser la diversité et la taille de l'échantillon tout en permettant un recueil facile et efficace. Toutefois une amélioration pourrait être apportée par exemple en ciblant des pharmacies avec une importante parapharmacie afin de maximiser encore plus la diversité de l'échantillon.
2. Une partie du questionnaire concernait un événement passé et relevait du déclaratif. Cela expose donc au biais de mémorisation. L'enquêteur et la personne qui a fait l'analyse des données (en particulier la condensation des réponses aux questions ouvertes) sont la même personne, moi-même. Cela expose au biais d'observation. Nous avons cherché à limiter ce biais en validant l'analyse à deux avec le directeur de thèse. Une partie des questions étaient ouvertes, donc l'analyse des réponses expose au biais d'interprétation. En particulier, la question principale de l'étude était de type ouvert. Je pense que ce mode de question est le plus intéressant pour ne pas orienter la personne interrogée avec des propositions de réponses. Afin de limiter ce biais, j'ai fait valider par mon directeur de thèse la condensation des réponses afin de procéder à l'analyse statistique. La majorité des questionnaires a été administré, mais une petite partie (12%) a été remplie directement par la personne interrogée afin de maximiser le recueil des questionnaires. Cela expose au biais de mesure.
III. Analyse des résultats et comparaison avec la littérature
L'objectif de cette partie est de mettre en avant les principaux enseignements qui se dégagent de notre étude. Nous discutons d'abord la représentativité de notre échantillon. Nous présentons 43 ensuite cinq principaux enseignements qui se dégagent nos résultats, et qui visent à répondre aux hypothèses de notre étude.
1. Les caractéristiques de la population de notre étude ont été comparées aux indicateurs de l'INSEE de 2016, pour la population du Pays Basque (26). La catégorie des moins de 25 ans est sous représentée (9% dans notre étude, 25,1% selon l'INSEE), et la catégorie des 25 à 64 ans est surreprésentée (59,5% dans notre étude, 50,8% selon l'INSEE). Les personnes vivant seul(e)s représentent 31% des participants de l'étude, contre 39,6% dans la population. Les femmes sont surreprésentées dans notre étude (66% contre 52,4% dans la population). On peut noter que la quasi-totalité des participants à l'étude est bien intégrée dans le système de santé avec 98% de personnes ayant un médecin traitant déclaré et 95% ayant la sécurité sociale ainsi qu'une mutuelle. Ces taux sont supérieurs aux statistiques de la population, selon le syndicat MG France, 91,1% des français ont un médecin traitant déclaré (27). On note donc quelques écarts entre le profil de la population de notre territoire d'étude et celui de notre échantillon. Ce dernier est un peu plus féminin, un peu plus âgé, et un peu plus intégré sur le plan médical (taux de médecin traitant déclaré). Rappelons ici que le critère de constitution de notre échantillon n'était pas de couvrir la diversité de la population, mais la diversité des contextes en termes d'offre de soins en PDSA. Malgré tout, notre échantillon reflète assez bien les caractéristiques de la population mère, et certains écarts constatés sont probablement le reflet de pratiques sociales habituelles : la surreprésentation des femmes résulte de leur plus grande propension à faire les courses du ménage, y compris à la pharmacie. De plus, la consommation de médicaments augmente avec l'âge. fin, le taux élevé de personnes déclarant un médecin traitant peut résulter en partie des pharmacies choisies pour collecter nos données. En effet, certaines pharmacies sélectionnées n'avaient pas ou très peu de parapharmacie et donc, presque toutes les personnes qui passaient par ces pharmacies avaient une ordonnance. On peut noter que dans la thèse de P. Dionis Du Séjour concernant la PDSA dans l'Essonne (22), le même phénomène est retrouvé avec une surreprésentation des personnes ayant un médecin traitant déclaré, et une sous-représentation des personnes bénéficiant de la CMU. Notons que ces écarts peuvent également résulter de biais de désirabilité sociale.
44 2. Les comportements en situation meilleurs que les intentions de comportement et que la connaissance de la PDS
Cette partie vise à répondre à la première hypothèse principale (la population n'est pas suffisamment informée concernant la PDS et les moyens d'accès au médecin généraliste de garde de leur secteur) et à la première hypothèse secondaire (les filières de soins ne sont pas suffisamment respectées en période de PDS).
a) Un comportement en situation majoritairement adapté
Dans notre étude, 50% des personnes interrogées ont eu une expérience de demande de soins non programmée en horaire de PDS, relevant bien d'une situation de médecine générale. Cette population n'est pas uniformément répartie sur les 5 territoires de notre étude : Baigorry Biarritz et le Sud Landes sont surreprésentés avec respectivement 26, 24 et 22 répondants, les zones de Saint Palais et Anglet sont sous-représentées avec 15 et 13 répondants. Le taux moyen de 50% de personnes ayant rencontré un problème de santé en horaire de PDS est comparable au taux de 53,5% trouvé dans la thèse de P. Dionis Du Séjour dans l'Essonne. Dans cette sous-partie (2.a), les statistiques portent sur la sous-partie de notre échantillon ayant eu une expérience de demande de soins en horaire PDS, soit sur 100 questionnaires. Les comportements adaptés sont majoritaires
Dans notre étude, 54% des personnes ont eu un comportement adapté à l'offre de soins de leur secteur qui a permis d'assurer une prise en charge adéquate de leur situation : elles ont eu recours à la PDS par la régulation médicale pour 37%, ou à SOS Médecins pour 17%. - Point d'entrée dans le système de soins : Avec 29% des 1er appels passés, le SAMU est le 1er interlocuteur pour un problème de santé relevant de la médecine générale en horaire de PDS. Il est suivi par SOS-Médecins (18% des appels), puis par les médecins traitants qui reçoivent 17% des appels en période de PDS. Ces personnes-là ont eu le réflexe d'appeler leur médecin traitant, pas tant dans l'espoir de le joindre, que pour connaître la conduite à tenir, indiquée sur le répondeur. Cela montre que le médecin traitant est au coeur du dispositif de santé, et souligne l'importance des informations laissées sur le répondeur des médecins généralistes. Une majorité de la population a le bon réflexe. Ces résultats diffèrent par rapport à la thèse de P. Dionis Du Séjour dans l'Essonne qui trouvait que 45,4% seulement de la population interrogée adoptait l'attitude recommandée en période de PDS. Dans sa thèse, 19,1% des premiers appels étaient adressés au SAMU, 19,9% à SOS 45 Médecins et 36,9% des personnes interrogées, avaient recours directement aux Urgences en période de PDS. Cette différence peut peut-être s'expliquer par les différences de territoire. En effet le territoire du département de l'Essonne présente moins de diversité avec un plus grande couverture par SOS Médecins (28) et une plus forte densité de services d'urgences, favorisant leur accessibilité. Une autre différence à noter est la proportion de personnes ayant appelé en premier leur médecin traitant. Dans la thèse de P. Dionis Du Séjour, seulement 4,9% des personnes avaient eu ce reflexe. Cette différence peut peut-être s'expliquer par une meilleur relation médecin patient dans la région. En effet, la densité de médecin par habitant étant plus élevée en PyrénéesAtlantiques (378 médecin / 100 000 habitants, contre 253 dans l'Essonne) (29). - Les comportements recommandés permettent d'assurer la prise en charge adaptée à la situation, grâce à la régulation médicale, si la personne a utilisé le bon mode d'entrée dans le système de soins, par un appel au SAMU-Centre 15. Parmi les personnes ayant appelé le SAMU, toutes ont été prises en charge. A noter tout de même que sur les 29 personnes, 10 disent avoir été réorientées vers les Urgences, un taux supérieur aux statistiques habituelles (34% dans notre étude versus 14% habituellement au SAMU 64A (30)). Dans les autres modes d'entrée, au contraire, il y a des pertes : 2 personnes ayant appelé SOS Médecins, et 2 personnes ayant appelé le médecin traitant n'ont finalement pas consulté de médecin. Parmi les 17 personnes ayant contacté leur médecin traitant, 12 seulement ont bénéficié d'une prise en charge adaptée : 11 personnes ont contacté la régulation médicale et 1 personne a recouru à SOS-Médecins. Parmi les 5 autres, 2 ont attendu le lendemain pour consulter leur médecin traitant, 2 se sont rendues aux urgences hospitalières, une personne a appelé les pompiers. La persistance de comportements inadaptés 26% des personnes ont eu recours aux urgences soit en recours direct (18% des répondants) soit après un appel infructueux auprès d'une autre source (8% des répondants.) Ces consultations-là échappent à toutes forme de régulation médicale ou d'évaluation médicale préalable à un passage hospitalier. En outre, la prise en charge n'est pas réalisée par la structure adéquate (Service des Urgences versus médecin de garde). De plus, 8% des personnes ont pu avoir accès au médecin généraliste de garde, mais sans passer par la régulation. Ces personnes ont fait appel à un ami médecin généraliste, ou ont eu l'information par le pharmacien ou la gendarmerie. Il y a donc des voies parallèles pour accéder au médecin généraliste de garde sans passer par la régulation médicale. On pourrait penser que ces voies 46 parallèles représentent une augmentation des moyens d'accès mais ces passages alternatifs sont surtout confusiogène pour le public par rapport au comportement à adopter en cas de demande de soins non programmés en horaire de PDS. En outre ces voies court-circuitent la régulation qui est le coeur du système de PDS. Enfin, 12% des répondants n'ont eu recours à aucun avis médical : soit parce qu'ils ont attendu le lendemain pour contacter leur médecin traitant (5%), soit parce qu'ils ont abandonné le parcours après un premier appel infructueux (à SOS-Médecins, au médecin traitant, au pharmacien). Au total 34% des personnes ont eu un comportement non adapté à l'offre de soins. Ces filières de soins non respectées vont engorger les urgences hospitalières et les serveurs des autres numéros d'urgences. Cela nuit au bon fonctionnement du système global. Malgré une majorité de personnes ayant un comportement adapté, il reste une part significative de la population ayant un comportement non adapté à la PDS. Une part de ces comportements trouve peut-être son explication dans les résultats de la thèse de M. Guerry réalisée à Bordeaux et Agen. A la question : « Pourquoi les patients vont-ils aux urgences au lieu de solliciter la PDSA? » 16,67% répondent être venus aux urgences par habitude. Une partie donc de la population a recours aux urgences en période de PDS simplement par habitude. Des comportements qui évoluent peu
Les décisions prises lors de l'évènement sont peu remises en cause, 85% des personnes se déclarent satisfaites et 82% disent que confrontées à la même situation, elles reprendraient les mêmes décisions. 8 personnes ont commenté ces réponses en disant ne pas être satisfaites, mais dans le cas où elles seraient de nouveau confrontées à une situation similaire, elles reprendraient les mêmes décisions car elles pensent ne pas avoir d'autre option. A noter que parmi ces 8 personnes, 2 avaient attendu le lendemain pour consulter le médecin traitant, et 3 s'étaient rendues directement aux urgences. Ces dernières se sont plaintes d'avoir trop attendu et de s'être faites reprocher d'être venues aux urgences pour un motif qui ne le justifiait pas. Ainsi, malgré leur mauvaise expérience, 47 les personnes ne remettent pas en cause leurs choix et ne vont pas chercher comment faire une prochaine fois.
b) Des intentions de comportement non recommandées
Les statistiques indiquées dans cette partie concernent la totalité de l'échantillon de l'étude soit 200 répondants. Les intentions de comportement non recommandées sont majoritaires Lorsqu'on s'intéresse à l'intention de comportement on constate qu'une majorité de personnes (53,5%) aurait un comportement non recommandé. Seulement 24,5 % des personnes auraient recours à la PDS par la régulation médicale, en appelant le SAMU-centre 15. 13,5% des personnes interrogées auraient recours à SOS Médecins.
Comparaison avec les comportements en situation
On peut remarquer que les comportements non recommandés représentent 53,5% des intentions, tandis qu'ils ne représentaient que 34% des comportements en situation. Ce constat permet d'envisager deux hypothèses explicatives : - Recourir à la PDS a un effet d'apprentissage. Ceux ont déjà eu une expérience de demande de soin en PDS sont plus nombreux à avoir une intention de comportement recommandé. - Le sous échantillon qui a eu recours à la PDS n'a pas les mêmes caractéristiques que l'échantillon complet, et ce sont ces caractéristiques qui expliquent la différence. L'analyse des intentions de comportement en fonction du comportement adopté en situation invalide la première hypothèse explicative. En effet, si on constate que, quel que soit le comportement adopté en situation, ce comportement est toujours le premier choisi dans les intentions, malgré tout, ceux dont le comportement en situation était recommandé ne sont que 54% à avoir une intention de comportement à nouveau recommandé. Au contraire, ceux dont le comportement en situation était non recommandé sont de 65% à 100% à avoir une intention de comportement non recommandé. On peut constater que les proportions de comportement recommandé ou non dans la population n'ayant pas eu d'expérience de demande de soins non programmée sont les mêmes que pour l'échantillon complet. Il n'y a donc pas de phénomène d'apprentissage par l'expérience. 48 La deuxième hypothèse explicative apparait plus vraisemblable. En effet certaines zones géographiques sont surreprésentées et d'autres sous-représentées dans le sous échantillon de 100 personnes ayant eu une expérience passée. L'écart entre les comportements en situation et les intentions de comportement provient peut-être de différences entre les territoires. Nous développerons ce point un peu plus bas. Ces constats sont cohérents avec le taux très élevé de répondants (82%) qui affirment que confrontés à la même situation, ils reproduiraient le même comportement, que ce dernier soit adapté ou pas. Il nous apparait donc que le public ne sait pas si le parcours de soins qu'il a pris est celui qui convient ou pas. Les personnes n'ont pas conscience d'avoir pris une décision cohérente ou non avec l'offre de soins. Si une personne appelle le 15 en horaire de PDS, elle ne va pas forcement s'entendre dire qu'elle a pris la bonne décision, et si elle va aux urgences pour un problème de médecine générale elle ne va pas nécessairement se voir reprocher cette décision. Dans certains cas, un tel reproche lui sera adressé, sans nécessairement l'accompagner des explications à propos de ce qu'il convenait de faire, ou comment agir pour une prochaine fois. Avoir été confronté à un problème de santé en période de PDS ne suffit pas à connaître les bons comportements à adopter. Si on compare les résultats pour l'intention de comportement à la thèse réalisée dans l'Essonne on retrouve cette fois des résultats similaires avec 54,3% d'attitudes non recommandées le weekend et 57,1% la nuit en semaine.
c) Un niveau général de connaissance et de compréhension insuffisant de la PDS
Il s'agit de la question principale de recherche. Nous allons analyser les résultats concernant la connaissance générale du système de PDS et en particulier, la connaissance du moyen pour accéder au médecin généraliste de garde. Les modalités d'accès au médecin généraliste de garde sont méconnues par la majorité de la population
En retrouvant 61,5% des personnes interrogées ne sachant pas comment joindre le médecin généraliste de garde, nous avons mis en évidence un manque d'information dans la population. Il 49 s'agissait d'une question ouverte, dont les réponses ont été regroupées en 2 catégories : méthodes valides ou non valides pour accéder au médecin généraliste de garde. Dans le groupe des méthodes non valides, les réponses ont été réparties en 2 sous-groupes :26% déclarent ne pas du tout savoir comment joindre le médecin de garde, et 35,5% déclarent un mauvais canal d'information : rechercher sur internet, demander à un autre numéro d'urgence (17, 18), regarder dans le journal et demander au pharmacien. Donnant une réponse fausse, il apparait que plus d'un tiers des répondants n'a pas conscience de ne pas savoir comment joindre le médecin généraliste de garde. Dans la thèse réalisée à Bordeaux par M. Guerry (21), 60,76% des personnes interrogées trouvent qu'il n'est pas facile de savoir qui est le médecin généraliste de garde. Ces résultats sont cohérents avec notre étude. La thèse de A. Kasprowski (31) concernant les déterminants du premier recours aux urgences adultes du CHU de Nantes en 2013 des patients consultant sans avis médical, conclue que le manque de connaissance concernant les alternatives existantes aux services d'urgences, et sur le rôle du Centre 15 dans la régulation et l'orientation en soins primaires favorise le recours aux urgences adultes. De plus dans cette thèse, les résultats concernant la connaissance sont encore plus bas avec 90% des personnes interrogées ignorant l'existence du Centre d'Accueil et de Permanence des Soins. Cette étude met également en évidence le manque d'information de la population concernant le rôle du Centre 15 dans la régulation médicale et l'orientation des patients. On peut toutefois espérer une amélioration progressive de la connaissance, le nombre d'appels de PDS au SAMU de Bayonne ayant augmenté de 7% entre 2016 et 2017 (32). Le système de soins en horaires de PDS n'est majoritairement pas compris par la population - La définition de la PDS
Concernant la définition de la PDS, 89% des personnes interrogées n'ont pas donné une réponse pertinente. Il s'agissait d'une question ouverte, dont les réponses ont été regroupées en 5 catégories. 26% ont répondu ne pas du tout savoir ce qu'est la PDS, 40,5% ont répondu que la PDS est l'accès aux soins 24h/24 et 7 jours sur 7. Seulement 11% des personnes interrogées ont dit que la PDS assurait la continuité des soins lors de la fermeture des cabinets médicaux. L'expression « permanence des soins » n'est donc pas comprise par une large majorité de la population. L'expression « permanence » porte à confusion pour la population car elle peut sous- 50 entendre que ce système est en place en permanence, et donc évoque plutôt les services d'urgences ouverts 24 heures sur 24, et non le maintien de la continuité des soins en ambulatoire, dans le prolongement du médecin traitant, assurant ainsi la permanence des soins en ambulatoire
. - Le rôle du SAMU
A l'exclusion des 9% qui déclarent ne pas savoir ce qu'est le SAMU, quasiment toute la population associe le numéro 15 aux urgences vitales, et dans 46% des cas, exclusivement à celles-ci. Ces données sont difficiles à comparer à la littérature car les questions posées ne sont pas exactement les mêmes. Le manque de connaissance et de compréhension de l'organisation de la permanence des soins, qui apparait élevé, voire très élevé dans notre étude, est pourtant, probablement sous-estimé. En effet, comme nous l'avons noté un peu plus tôt, la population de notre échantillon est bien intégrée sur le plan médica , et donc probablement mieux informée que la population générale. La population se perçoit bien informée sur le système de PDS
A la question « vous estimez-vous suffisamment informé concernant les démarches à suivre / l'attitude à adopter en cas de problème de santé en l'absence de votre médecin traitant », 57,5% ont répondu positivement. J'ai été très surprise par ce résultat car dans de nombreux cas, il est arrivé juste après que les personnes ont répondu « ne sait pas » à la série de questions sur la connaissance du système. Alors même que lors du début du recueil j'avais le sentiment d'avoir mal formulé cette question avec un biais tendant les gens à répondre ne pas être suffisamment informés. Ces résultats sont contradictoires avoir ceux de la thèse réalisée dans l'Essonne qui retrouve 70% de personnes se jugeant insuffisamment informées. Ø Conclusion : o La première hypothèse principale (la population n'est pas suffisamment informée concernant la PDS et les moyens d'accès au médecin généraliste de garde de leur secteur) est validée par l'analyse de nos résultats. On note en particulier les points suivants : § 89% de l'échantillon ne sait pas ce que signifie la PDS. 51 § 61,5% de l'échantillon ne sait pas comment accéder au médecin généraliste de garde. o § 57,5% de l'échantillon se considère malgré tout bien informé. § 53,5% a une intention de comportement non recommandée. Malgré cette méconnaissance, en situation pratique, la majorité de l'échantillon (54%) adopte un comportement recommandé. Par conséquent, la première hypothèse secondaire (les filières de soins ne sont pas suffisamment respectées en période de PDS), n'est que partiellement validée. Ce résultat est obtenu sur un sous-échantillon qui a des caractéristiques différentes sur le plan des territoires et qui explique probablement cette performance relative o On note une absence de phénomène d'apprentissage : l'expérience d'une demande de soins en horaires de PDS ne se traduit pas dans des intentions de comportement meilleur.
3. Le territoire impacte les comportements en période de PDS
Cette partie vise à répondre à la deuxième hypothèse principale (l'information de la population varie selon l'offre de soins du territoire) et à la deuxième hypothèse secondaire (le respect des filières de soins varie selon l'offre de soins du territoire). Les résultats de notre étude mettent en relief des différences importantes de comportement, d'intention et de connaissance entre des territoires proches géographiquement. En effet, on retrouve nettement plus de recours à la PDS par la régulation médicale (dans le comportement en situation) à Baigorry (73,1%) qu'à Saint Palais (40%) et dans le Sud Landes (36,4%) et l'écart est encore plus fort avec le BAB (Anglet : 15,4% et Biarritz : 8,3%). A Anglet et Biarritz, le fait de rajouter les personnes faisant appel à SOS Médecins augmente le recours à la PDSA passant de 15,4 à 61,6% à Anglet et de 8,3 à 54,1% à Biarritz. Une partie de l'explication de cet écart, allant du simple à l'octuple, tient à l'offre de soins qui est différente sur ces territoires. Dans la zone du BAB (Anglet et Biarritz) la présence de SOS Médecins prend une part des appels qui pourraient être destinés à la régulation médicale. Ce mode de fonctionnement en association de PDSA, permet de soulager les médecins généralistes d'une zone des gardes de PDS. Leur présence permet d'assurer la permanence des soins y compris en nuit profonde. L'inconvénient est l'absence de régulation médicale. En effet, les patients appellent un standard qui note et priorise les consultations en d'un protocole, mais il n'y a pas de régulation médicale. a) Zone avec un taux élevé de recours à la régulation médicale
Il s'agit de la zone de Baigorry qui est la plus isolée géographiquement, à près de 50 minutes de route des services d'urgences. Dans cette zone, le taux de recours à la régulation est élevé : 73,1% dans le comportement en situation, 42,5% dans l'intention de comportement. Concernant la connaissance du moyen d'accès aux médecins généralistes de garde, il s'agit de la seule zone ayant une majorité de personne informées avec 67,5%. Dans les autres zones, le taux de connaissance est de 22,5 à 37,5% Nous pouvons constater que plus la zone est isolée, plus la population est informée et agit en cohérence avec l'offre de soins de PDS. Nous pouvons supposer que n'ayant pas la facilité de la proximité des urgences d'un centre hospitalier ou la facilité d'usage de SOS Médecins, les habitants de cette zone ont dû aller chercher l'information et donc sont mieux informés. Ces résultats sont cohérents avec ceux de la thèse de N. Gavoille (33) qui a réalisé une étude sur le lien entre le nombre d'appel au SAMU et la densité médicale des zones géographiques en 2019. Il retrouvait aussi que plus la zone est sous dotée en médecin généraliste, plus la population à recours à la régulation médicale notamment pour des problèmes de médecine générale.
b) Zone avec un taux moyen de recours à la régulation médicale
Il s'agit des zones de Saint Palais et du Sud Landes avec respectivement 40% et 36,4% de taux de recours à la régulation médicale lors d'une précédente expérience. Dans l'intention de recours on retrouve le même phénomène avec respectivement 25% et 37,5% d'intention de recours à la régulation.
| 38,321
|
12a5de0f805447ec9d3dca758da41cec_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Modèle de diffusion frugal pour l'inpainting d'images. GRETSI 2023 :XXIXème Colloque Francophone de Traitement du Signal et des Images, Aug 2023, Grenoble, France. ⟨hal-04199282⟩
|
None
|
French
|
Spoken
| 2,655
| 4,346
|
Modèle de diffusion frugal pour l’inpainting d’images Nicolas Cherel, Andrés Almansa, Yann Gousseau, Alasdair Newson
Nicolas HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Modèle de diffusion frugal pour
l’
in
painting d’images Nicolas C HEREL1 1 Andrés A LMANSA2 Yann G OUSSEAU1 Alasdair N EWSON1 LTCI, Télécom Paris, Institut Polytechnique de Paris, France 2 MAP5 & CNRS, Université Paris Cité, France Résumé –
Très récemment, les modèles de diffusion probabilistes ont permis d’améliorer significativement l’état de
l’art en synthèse d’images. Ces modèles génératifs se sont avérés particulièrement efficaces pour la résolution de problèmes inverses comme la super-résolution, le défloutage ou
l’inpainting. Cependant beaucoup de ces modèles de diffusion reposent sur des centaines de millions de paramètres et le temps d’apprentissage se compte en dizaines de jours-GPU. Ces contraintes matérielles rendent leur utilisation particulièrement lourde et couteuse. Nous proposons un modèle de diffusion léger pour l’inpainting, adapté à des entraînements sur une ou ques images, ne nécessitant qu’un apprentissage relativement rapide. Nous analysons précisément l’apport de la diffusion, à architecture constante, et nous comparons notre réseau léger avec l’état de l’art dans l’inpainting image. Abstract – Very recently, probabilistic diffusion models have significantly improved the state of the art for the synthesis of images. These generative models are very efficient for solving inverse problems such as super-resolution, deblurring or inpainting. However, many of these diffusion models have hundreds of millions of parameters and the learning time is in tens of GPU days. These hardware constraints make them especially heavy and costly to use. We propose a lightweight diffusion model for inpainting, suitable for training on one or a few images, and requiring relatively little learning.
1 Introduction et contexte
l’art sur certains types d’images. Nous montrons qu’il est possible avec peu de modifications d’utiliser la même architecture pour la résolution de problèmes plus simples avec un entraînement très rapide. Nous étudions précisément l’apport de la diffusion par rapport à une approche standard d’apprentissage profond, à architecture de réseau fixée. Enfin, nous comparons notre méthode avec l’état de l’art par diffusion en termes de ressources computationnelles et d’impact écologique ;
Diffusion
Les modèles de diffusion pour la génération d’image ont été introduits par Sohl-Dickstein et al. [9] en 2015. Ho et al. [2] ont popularisé la méthode en reformulant le problème en un problème de débruitage. De nombreuses extensions ont été proposées pour la génération conditionnelle à partir de texte, ou pour la résolution de problèmes inverses [7]. Le coût matériel et des temps d’apprentissage longs ont poussé la recherche vers des méthodes d’entraînement plus efficaces. Rombach et al. [6] réalisent l’apprentissage d’un modèle de diffusion dans un espace latent plus petit que l’espace image. Inpainting
Les approches classiques d’inpainting par patchs [10, 4] s’appuient sur l’auto-similarité des images pour construire une solution vraisemblable. Depuis 2016, des méthodes par réseaux de neurones ont utilisé de larges bases de données d’images pour apprendre à résoudre ce problème [5]. Yu et al. [11] intègrent une couche d’attention pour intégrer une composante non-locale dans leur réseau autrement purement convolutif. Très récemment, des méthodes reposant sur des modèles de diffusion sont apparues, très gourmandes en ressources, telles Repaint [3] et Palette [7]. Les modèles génératifs reposant sur l’apprentissage profond ont connu un essor considérable dans les dernières années, depuis l’introduction des “Generative Adversarial Network” (GAN) de Goodfellow et al. [1]. Par la suite, les modèles de diffusion [2] ont surpassé ces approches, et se sont imposés comme étant l’état de l’art pour la synthèse et l’édition des images. En effet, ces modèles conduisent à des résultats souvent de meilleure qualité qu’avec des GANs, avec un entraînement plus stable. Néanmoins, ces modèles de diffusion sont massifs, comprennent possiblement jusqu’à plusieurs centaines de millions de paramètres et requièrent des ressources computationnelles énormes, rendant cet entraînement impossible pour la majorité des utilisateurs et discutable d’un point de vue environnemental. Par ailleurs, les a priori d’images trouvés implicitement par modèles génératifs ont été exploités pour la résolution de problèmes inverses [7]. Un exemple de problème inverse est l’inpainting d’image, qui consiste à remplir une zone inconnue d’une image de manière visuellement convaincante. Dans ce papier, nous nous intéressons à l’utilisation des modèles de diffusion pour l’inpainting d’image. En contraste avec l’état de l’art qui propose des architectures massives, nous proposons des modèles de taille très réduite. Ces modèles reposent uniquement sur des opérations de convolution, de sous/suréchantillonnage et de non-linéarités, contrairement à la plupart des modèles de diffusion qui font intervenir d’autres modules plus complexes, par exemple des modules d’attention. Notre but est ainsi de proposer et d’étudier des modèles “frugaux” de diffusion pour l’inpainting afin de mieux comprendre leur fonctionnement et de permettre leur utilisation sans avoir recours à des ressources computationnelles exorbitantes. Plus précisément, nos contributions sont les suivantes. Premièrement, nous proposons une architecture de modèle de diffusion de taille réduite qui est compétitive avec l’état de 2 Méthode Nous appelons x l’image de référence, et M le masque qui indique la zone à remplir, égal à 1 dans la zone, et 0 partout ailleurs. Soit y = x ⊙ M l’image masquée (et donc à remplir), où ⊙ représente la multiplication élément par élément. 1 L’entraînement est fait en tirant aléatoirement des régions de taille 256x256 depuis une ou plusieurs images, qui sont ensuite bruitées et masquées. Le masque M est généré synthétiquement selon une formulation de Yu et al. [11]. Il est nécessaire d’ r le réseau à réaliser le débruitage pour tous les pas de temps, ils sont donc tirés uniformément dans [0, T ]. Nous introduisons l’information temporelle au débruiteur sous la forme de la variance σt2 associée à l’étape t. F IGURE 1 : Architecture du réseau UNet 2.1 Modèles de diffusion pour l’inpainting Résultats 3.1 Expériences
Nous comparons notre réseau de diffusion frugal avec trois autres approches. La première est une approche classique par patchs [4], qui ne nécessite pas de phase d’apprentissage. La seconde est la formulation d’inpainting de Lugmayr et al. [3] qui représente l’état de l’art en inpainting. Leur réseau a plusieurs centaines de millions de paramètres et nécessite plusieurs dizaines de jours-GPU d’entraînement. Enfin, nous comparons notre inpainting par diffusion avec une approche standard par apprentissage sur un problème de régression. Comparaison directe avec la régression à réseau fixe : Cette comparaison est effectuée à architecture fixée : nous isolons précisément l’apport de la modélisation par diffusion. Pour la régression, le réseau est entraîné en utilisant uniquement l’erreur L2 de reconstruction de l’image sur la zone masquée. Pour le réseau de diffusion, nous appliquons l’algorithme d’apprentissage classique [9, 2], en bruitant à différents pas de temps les images partiellement masquées. Les deux réseaux sont entraînés pendant le même temps (45 minutes). Données : Nous nous plaçons dans le cas où nous avons accès à un jeu de données restreint, ou même à une seule image (cas “mono-image”). Nous considérons des images de textures et de petits jeux de données auto-similaires où peu d’images, de l’ordre de la dizaine ou de plusieurs dizaines, sont disponibles. Pour les images de textures une seule image est utilisée. Pour les dessins [8], plusieurs dizaines d’images sont disponibles pour l’entraînement. L’apprentissage est fait selon les données disponibles en préservant une région de test (Figure 2). La généralisation à de nouvelles textures ou modalités jamais vues ne fait pas partie de nos objectifs. Notons que notre méthode ne vise pas à traiter des grandes bases de données, contrairement aux réseaux massif de type RePaint. Hyperparamètres : Nous entraînons notre réseau pour 15000 itérations avec des batchs de 16 images de taille 256x256. L’optimiseur est Adam dont le taux d’apprentissage initial est 1e-4. L’entraînement dure environ 40 minutes. Les modèles de diffusion [2] sont des modèles génératifs dont le but est généralement d’apprendre une distribution d’images naturelles. Ils s’appuient sur un processus forward destructif et un processus backward génératif. Le processus forward consiste à transformer une image d’entrée, qui est supposée être un échantillon de la distribution des images naturelles, en une image de bruit blanc, par l’ajout de bruit de faible amplitude pendant un certain nombre d’itérations. Le processus backward effectue les étapes inverses : des débruitages (appris) itératifs d’un échantillon initialement tiré d’un bruit gaussien. Si le débruiteur est appris correctement, il permet de passer d’un bruit blanc à un exemple d’image. On considère que l’image de référence correspond à l’image au “temps” t = 0, et l’image finale bruitée à celle au temps t = T. Ainsi, on établit une succession d’images x̃t avec un niveau de bruit qui augmente avec le temps. Entraînement
Pour l’inpainting, on entraîne le débruiteur à passer d’une image x̃t (pour un temps t) à l’image de référence x. Plus précisément, on minimise l’erreur suivante : Lθ (x) = ∥x − fθ (x̃t, y, M, σt2 )∥2 3 (1) où fθ représente un réseau de neurones qui effectue le débruitage. L’apprentissage est fait pour tous les niveaux de bruit, couvrant ainsi l’intervalle de variances σ02 = 0 <... < σT2 = 1. Le paramètre t contrôle le niveau de bruit ajouté à l’image x pour obtenir x̃t. Nous notons que fθ prend en entrée à la fois l’image bruitée x̃t, l’image de référence masquée y, le masque M et le niveau de bruit associé à l’étape t : σt2. Synt
hèse (inférence
) Une fois le débruiteur fθ entraîné, la synthèse consiste à tirer un échantillon aléatoire xT et à le débruiter successivement de t = T,..., 0. Pour plus de détails, nous renvoyons le lecteur vers les articles fondateurs [9, 2]. 2.2 Un réseau léger pour l’inpainting monoimage 3.2 Résultats Résultats qualitatifs
La Figure 3 montre les résultats pour les différents modèles. On observe que la méthode par régression directe conduit à des résultats dans lesquels les variations stochastiques des images ne sont pas reproduits, contrairement aux méthodes par diffusion ou par patchs. Pour les images très régulières (avec des périodicités par exemple), la méthode par régression est capable de reconstruire partiellement la structure principale mais les résultats restent flou (Figure 3, ligne du haut). Ces pertes de détail et le flou des résultats sont le résultat Pour l’architecture du réseau, nous avons choisi de simplifier au maximum l’architecture de Ho et al. [2]. Il s’agit donc d’un réseau de type UNet sans couche d’attention (Figure 1). Les entrées du réseau sont concaténées avant la première convolution. Dans le cas de l’inpainting mono-image, ou pour une modalité spécifique, il n’est pas nécessaire de multiplier les paramètres, nous limitons ainsi le nombre de canaux à 32. Finalement notre réseau a 160k paramètres contre 550M pour RePaint [3]. 2 pose des question sur leur caractère durable. Nous avons présenté un réseau reposant sur le principe de l’entraînement par diffusion mais ne gardant que l’essentiel pour son architecture, divisant le nombre de paramètres par plus que 1000 et le temps d’entraînement par 500 par rapport aux méthodes de l’état de l’art, sans compromettre la qualité des résultats dans les cas où un petit nombre d’image permet l’apprentissage.
Références F IGURE 2 : Exemple de texture dans le cas mono-image. La zone de test (en bleu) est écartée pendant l’apprentissage. [1] Ian G OODFELLOW, Jean P OUGET-A BADIE, Mehdi M IRZA, Bing X U, David WARDE -FARLEY, Sherjil O ZAIR, C OURVILLE et Yoshua B ENGIO : Generative Adversarial Nets. In NIPS. 2014. TABLE 1 : Erreur de reconstruction sur 10 images de textures Méthode PSNR (dB) ↑ LPIPS ↓ SSIM ↑ #Param. Patch 21.18 0.072 0.871 Régression 24.30 0.159 0.902 160k Diffusion 21.32 0.072 0.881 160k RePaint 21.28 0.078 0.879 553M
[2] Jonathan H O, Ajay JAIN et Pieter A BBEEL : Denoising Diffusion Probabilistic Models. In NIPS, 2020. [3] Andreas L UGMAYR, Martin DANELLJAN, Andres RO MERO, Fisher Y U, Radu T IMOFTE et Luc VAN G OOL : RePaint : Inpainting using Denoising Diffusion Probabilistic Models. In CVPR, 2022.
prévisible d’un effet de moyennage de la méthode par régression. Il est intéressant de constater que dans ce cas simple, et à architecture constante, l’apprentissage par diffusion seul permet d’obtenir des résultats nets et détaillés. Observons également que, bien que non entraîné sur ces textures spécifiques, RePaint produit un inpainting satisfaisant. Cette capacité de généralisation peut être expliquée par la taille du réseau et la base de données conséquente d’entraînement. Résultats quantitatifs Quantitativement, nous mesurons l’erreur de reconstruction entre la vérité terrain et une prédiction pour chaque méthode. Selon le tableau 1, le PSNR est meilleur pour la méthode par régression minimisant directement l’erreur quadratique comparée à une méthode par diffusion ou par patchs. Selon la mesure perceptuelle LPIPS[12], l’échantillon obtenu par diffusion est meilleur. Observons par ailleurs que ces résultats indiquent (confirment) que la mesure traditionnelle du PSNR pour l’évaluation en inpainting est insuffisante et ne reflète pas la qualité d’une méthode.
3.3 [4] Alasdair N EWSON, Andrés A LMANSA, Yann G OUS SEAU et Patrick P ÉREZ : Non-Local Patch-Based Image Inpainting. IPOL, 2017. [5] Deepak PATHAK, Philipp K RAHENBUHL, Jeff D ONA HUE, Trevor DARRELL et Alexei A. E FROS : Context Encoders : Feature Learning by Inpainting. In CVPR, 2016. [6] Robin ROMBACH, Andreas B LATTMANN, Dominik L ORENZ, Patrick E SSER et Björn O MMER : HighResolution Image Synthesis With Latent Diffusion Models. In CVPR, 2022. [7] Chitwan S AHARIA, William C HAN, Huiwen C HANG, Chris L EE, Jonathan H O, Tim S ALIMANS, David F LEET et Mohammad N OROUZI : Palette : Image-to-Image Diffusion Models. In SIGGRAPH, 2022. Frugalité [8] Kazuma S ASAKI, Satoshi I IZUKA, Edgar S IMO -S ERRA et Hiroshi I SHIKAWA : Learning to restore deteriorated line drawing. IJCG, 2018. Les sections précédentes montrent que RePaint [3], produit des résultats de très bonne qualité et est capable de généraliser à des problèmes très spécifiques : textures particulières, nouvelle modalité (dessin). Ces capacités ont néanmoins été obtenues après une longue phase d’apprentissage et donc au prix d’un impact environnemental conséquent. Cet aspect est bien entendu important au vu des défis du changement climatique. Nous reportons dans le tableau 2 les consommations électriques estimées pour chaque méthode incluant le temps d’entraînement et le temps d’une inférence. L’équivalent CO2 est fourni à titre informatif pour une électricité française1. 4 [9] Jascha S OHL -D ICKSTEIN, Eric W EISS, Niru M AHES WARANATHAN et Surya G ANGULI : Deep Unsupervised Learning using Nonequilibrium Thermodynamics. In ICML, 2015. [10] Yonatan W EXLER, Eli S HECHTMAN et Michal I RANI : Space-time completion of video. PAMI, 2007. [11] Jiahui Y U, Zhe L. L IN, Jimei YANG, Xiaohui S HEN, Xin L U et Thomas S. H UANG : Generative Image Inpainting with Contextual Attention. CVPR, 2018. Conclusion [12] Richard Z HANG, Phillip I SOLA, Alexei A. E FROS, Eli S HECHTMAN et Oliver
WANG
: The Unreasonable Effectiveness of Deep Features
as
a Perceptual Metric. In CVPR, 2018
. Les méthodes par diffusion se sont imposées comme l’état de l’art pour la génération d’images et la résolution de nombreux problèmes inverses. Cependant le coût d’entraînement de ces modèles est un obstacle majeur à leur utilisation pratique et 1 56.9g éq. CO2/kWh en 2021. Source : Base Empreinte® (ADEME) 3 F IGURE 3 : Vérité-terrain et résultats par différentes méthodes (de gauche à droite) : par patchs, régression et diffusion mono-image, et par RePaint.
TABLE
2
: Impact environnemental de chaque méthode, principalement du temps d’entraînement et d’inférence Temps (h) Méthode Électricité (kWh) gCO2eq Entraînement / Inférence Patch - / 0.03 0.004 0.3 Diffusion 1 / 0.001 0.25 14 RePaint 576 / 0.17 172.8 9832 4.
| 16,312
|
58/hal.archives-ouvertes.fr-hal-01578025-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,735
| 14,502
|
L'espace habité que réclame l'assurance intime de voir Marc Brev ri L'espace habité que réclame l'assurance intime de pouvoir Un essai d'approfondissement sociologique
de l'
anthropologie
capacitaire de Paul Ricoeur
Marc
Brev
iglieri Haute Ecole de Travail Social de Genève et Groupe de Sociologie Politique et Morale (EHESS). Abstract This article considers two sociological postures in relation to Paul Ricoeur's anthropology of capable man. The first sociological approach scrutinizes the concept of human capacity from the perspective of Ricoeur's hermeneutics. The second approach elaborated here aims to study the fundamental phenomena of the practical sphere exposed in Philosophie de la volonté. The question of capacities is raised to the upper level, where primitive sensitive experiences are carried out and human beings are still considered to be dependent on vital functions. A reflection will be carried out on the inner certainty of being able to be capable and consubstantial foundation of a practical space integrated by familiarity with the body schema. This study will allow for a critical illumination of social policies currently focused on the activation of individual capacities.
Keywords
: Sociology, Inhabited, Primitive, Life,
Familiarity umé
Cet article envisage deux postures sociologiques au regard de l'anthropologie de l'homme capable de Paul Ricoeur. Une première sociologie travaille en approfondissant la notion de capacité humaine sous le signe de l'herméneutique de Ricoeur. Une seconde, dont le projet sera ici explicité, reprend l'ambition d'étudier les phénomènes fondamentaux de la sphère pratique exposée dans la Philosophie de la volonté. La question des capacités y est prise très amont, au niveau où s'exercent des expériences sensibles primitives, et où l'humain est encore considéré dans la dépendance au vital. Une réflexion y sera conduite sur l'assurance intime de pouvoir se rendre capable et la fondation consubstantielle d'un espace pratique intégré par familiarité au schéma corporel. Ce développement permettra pour finir un éclairage critique sur les politiques sociales actuellement centrées sur l'activation des capacités des individus.
Mots clés
:
Sociolog
ie, é, Primitif, Vie, Familiarité habité que réclame l'assurance intime de pouvoir Un essai d'approfondissement sociologique de l'anthropologie capacitaire de Paul Ricoeur Marc Breviglieri Haute Ecole de Travail Social de Genève et Groupe de Sociologie Politique et Morale (EHESS). Le parcours qu'entreprend cet article emprunte deux voies d'accès pour rouvrir sociologiquement le thème des capacités humaines à partir d'une discussion de l'anthropologie de l'homme capable de Paul Ricoeur. La première voie manifeste une convergence et une contemporanéité entre une sociologie interprétative et l'anthropologie capacitaire de Ricoeur qui est apparue explicitement avec la publication de Soi-même comme un autre. Elle a été l'occasion de rénover les approches sociologiques de l'expérience publique et de sa vulnérabilité, mais aussi de s'interroger sur l'avancée majeure dans nos sociétés contemporaines d'une politique misant vigoureusement sur le renforcement des capacités des individus, en plaçant au coeur du débat public le problème de la distribution inégale de la puissance d'agir. La seconde voie cherche à établir un dialogue dans d'autres termes, en reprenant l'axe du projet phénoménologique de la Philosophie de la volonté. La question des capacités n'est plus envisagée sous l'angle de leur affirmation et de leur reconnaissance qui implique autrui en mettant en jeu l'estime de soi. Elle est prise très en amont de cela, au niveau où s'exercent des expériences corporelles primitives et où peut s'établir une assurance intime de pouvoir se rendre capable. Cette assurance ne tient pas à la confiance de prendre à son compte un pouvoir, mais à la fondation d'un espace pratique usuel intégré par la familiarité au schéma corporel. Il nous restera alors à voir comment cet autre espace de dialogue avec la pensée de Ricoeur nous permet de poser un regard critique sur les formes de solidarités fondées sur la distribution de capacités individuelles que la première voie de discussion nous a laissé entrevoir. De la compréhension des mondes marqués par le devoir d'être capable
L'orientation prise, à l'orée des années quatre-vingt dix, par un courant pragmatique en sociologie, a conduit à une importante reconsidération de l'anthropologie capacitaire irrigant les analyses de la réalité sociale, politique ou économique.1 En reposant sur une philosophie du possible, qui met en avant les figures multiples de la contingence, qui introduit l'incertain et l'imprévu dans le travail de compréhension de la réalité, elle a pris un net recul critique devant ce qui a été un enjeu crucial des décennies précédentes: la construction modélisée d'une statique qui donnait le primat aux régularités d'ordre ou aux équilibres généraux. Pour envisager la manière dont les acteurs partagent une réalité sans être fatalement gouvernés par une loi, pour permettre d'appréhender la manière dont ils s'inscrivent dans l'incertitude et tentent de maîtriser l'imprévisible, pour observer comment ils font face à la puissance d'ébranlement du sens dont dispose l'événement, il a fallu négocier un "tournant interprétatif" et donc faire émerger dans l'analyse des capacités de lecture et d'interprétation dont le modélisateur n'avait précédemment pas à se soucier.2 Et d'abord des capacités faisant jouer une réserve de sens qui se déploie vers le passé ou l'avenir pour mieux intégrer au présent la possibilité de l'anticipation des phénomènes 3 Marc Breviglieri incertains et de la révision des croyances. L'anthropologie de l'homme capable de Ricoeur, qui s'est exprimée de la manière la plus explicite dans Soi-même comme un autre, a exercé sur ce courant pragmatique qui lui était alors contemporain, à travers un dialogue renoué avec celui-ci par son seul retentissement sur lui, une véritable force impressive et une inspiration durable.3 Cette influence peut être répartie sommairement sur deux plans distincts. D'un côté, l'anthropologie capacitaire de Ricoeur a permis de renforcer la compréhension d'un trait majeur de l'évolution des sociétés modernes contemporaines reflété par la percée coextensive du sujet de droit et des "modalisations subjectives de l'activité, vouloir et pouvoir" qui se traduisent distinctement dans "la pression à la réalisation de soi" et ses divers effets organisationnels et pathogènes.4 Il apparaît derrière cette percée, qui renforce à tous les niveaux de l'existence la reconnaissance de capacités ou d'incapacités, un processus d'institutionalisation généralisée d'une dynamique de responsabilisation. De l'interprétation des capacités à agir dans le monde D'un autre côté, l'anthropologie de l'homme capable de Ricoeur a fourni aux sciences sociales de quoi enrichir substantiellement leur propre anthropologie capacitaire, c'est-à-dire leurs présupposés anthropologiques sur ce dont les hommes sont capables ou pas. C'est d'abord en mettant l'accent sur un ensemble de pouvoirs de base de l'homme capable (les quatre capacités fondamentales - je peux parler, agir, raconter, me tenir pour responsable - exposées dans Soimême comme un autre) que Ricoeur apporte une contribution importante de ce point de vue. A propos de l'expression "ce dont les gens sont capables," qui s'est imposée comme un étendard de la sociologie pragmatique francophone, Luc Boltanski le souligne très explicitement : "c'est là que Ricoeur a été fondamental car il a fallu repartir avec les hommes tels qu'ils étaient et ils étaient plus et mieux décrits chez Ricoeur que dans ce dont nous disposions avant. () On avait bien des outils comme les compétences dispositionnelles mais évidemment ce n'était pas du tout la compétence telle qu'on pouvait l'envisager depuis Ricoeur comme capabilité, comme orientation vers la morale, comme faisant face à l'incertitude qui pour nous est devenue une notion centrale, notamment pour mettre en échec la toute-puissance du déterminisme."8 Parallèlement, une sociologie herméneutique et praxéologique, affiliée à l'ethnométhodologie, a particulièrement creusé, dans les traces de Ricoeur, l'analyse d'une sémantique de l'action.9 A cet égard, elle s'est penchée en détail sur un ensemble de situations où pèse une exigence de compte- circonstancié, mettant en lumière le travail d'identification, de catégorisation, de typification et de commensurabilisation de l'action que réclame sa représentation même dans un contexte déterminé.10 On peut à nouveau évoquer une double orientation négociée dans la lignée de ces travaux. D'une part, une orientation qui a approfondi la question de l'agir en situation (ou de "l'action située"), accordant une importance inédite à la distribution des capacités sur l'environnement technique et matériel.11 D'autre part, une orientation qui, suivant le "trajet d'intériorisation" vers la subjectivité que décrit Ricoeur (trajet qui tend à ramener l'action-événement à l'action-projet), a assis son analyse sur une lecture conjointe de l'événement et du projet subjectivé.12 Les deux orientations se sont retrouvées en prenant notamment l'expression d'une dialectique de la stabilisation (permise par les opérations et dispositifs qui prétendent à l'objectivité et à la validité) et de l'indétermination (tenant au surgissement de l'événement, énigmatique en tant que singulier et non répétable) qui finit par structurer le sens de l'expérience publique.13 Non sans liens, une analyse pragmatique des mises en récit des "événements sociaux" (discours politiques ou médiatiques, témoignages historiques, prédications,) a permis de disséquer les dynamiques énonciatives capables de conjoindre la composante narrative des controverses médiatiques ou politiques, la dramatisation de l'expérience personnelle ou collective, la configuration de problématiques historiques et l'ouverture à la critique des récits officiels.14 Ces travaux n'ont d'ailleurs pas été sans mettre au jour certaines limites du travail historiographique, comme à approfondir la réflexion sur la prétention à la vérité du discours historique.15 Mais la mise au jour d'une capacité subjective à activer le procès narratif du récit a aussi contribué à revisiter la notion d'identité qui renvoie classiquement, dans les sciences sociales, à une propriété dispositionnelle et collective, héritée culturellement. Ainsi, l'attention d'une sociologie hérméneutique au recueil de témoignages et de récits de vie a mis au premier plan de l'analyse des bifurcations dans l'identité elle-même, des modulations existentielles ou des tournants biographiques tenant à des événements marquants.16 Ce renversement du plan d'analyse de l'identité a permis d'introduire de remarquables éléments de compréhension sur la fragilité du maintien de soi, notamment lorsque l'identité narrative se montre affectée par un malheur.17 C'est aussi dans la continuité de l'examen de ces formes de souffrance passant sous les traits du récit que les bases d'une sémantique et d'une analyse sociologiques des vulnérabilités se sont trouvées renforcées, faisant une place aux situations tragiques de l'" inexistence sociale", de la maladie ou de la violence urbaine.18 Le rapport primitif au corps Nous voudrions désormais pouvoir mettre de côté cette orientation centrale de la philosophie de l'homme capable de Ricoeur, organisée autour des quatre usages majeurs du "je 5 Marc Breviglieri peux", pour délimiter un autre lieu de rencontre possible avec la sociologie. Contrairement aux courants sociologiques qui viennent d'être évoqués, ce second lieu de rencontre ne voit pas d'emblée se profiler les questions que posent une sémantique de l'action et une analyse interprétative de ses manifestations publiques. Pour déployer ce second lieu de rencontre, je propose de repartir de l'étude des phénomènes fondamentaux de la sphère pratique abordés dans la Philosophie de la volonté. Non pas pour abandonner complètement la question des capacités (nous y reviendrons par un certain détour), ni pour s'écarter de l'axe agir-pâtir qui éclaire chez Ricoeur la compréhension de ces dernières, mais pour rehausser dans l'analyse sociologique la place que pourrait occuper un ensemble d'expériences corporelles primitives.19 Or ces expériences corporelles primitives se tiennent essentiellement sur le plan organique qui n'est pas le plan humain, "bien qu'ils (ces deux plans) entretiennent indubitablement un double rapport de dépendance et d'émergence."20 Elles aident donc l'analyse à mieux comprendre comment se fonde et ce qu'exige l'humanité de l'homme, pourquoi il ne suffit pas de vivre pour être humain.21 L'" amplitude de l'humain" fait intervenir, nous dit Ricoeur, "des exigences étrangères au souci vital" à partir desquelles se retrace tout le cheminement difficile que suppose la pleine émergence de la condition humaine et des facultés (proprement humaines) qu'elle suppose.22 Mais simultanément, la "vie est porteuse d'humanité", bien qu'elle ne se réfléchisse pas comme telle, qu'elle ne soit d'ailleurs sentie qu'à travers une affectivité diffuse et non connue.23 Elle porte l'humanité en ce sens où elle forme pour elle une assise consubstantielle. Mais cette dernière demeure pourtant, et paradoxalement, une dimension fragilisant la qualité même d'humanité. Ainsi lorsque le sentir intérieur vital ou organique est altéré, par exemple lorsque sourd l'urgence pressante d'un besoin (une difficulté panique à respirer, un ventre qui ne résiste plus à la faim) un vernis d'humanité semble pouvoir brutalement s'écailler. Symétriquement, le psychiatre Hubertus Tellenbach montre combien la plongée dans la mélancolie s'accompagne d'une perte des références situationnelles vitales : le soir, le repas (etc.), perdant leurs contenus signifiants vitaux, n'appellent plus le sommeil, la faim ou la soif.24 En voyant disparaître cette couche primordiale de valeurs vitales hétérogènes, ce sont les possibilités mêmes du pouvoir-être qui sont menacées, déstabilisant l'ipséité de la personne, empêchant la vie de s'individualiser aux niveaux auxquels aspire l'humanité. C'est ainsi, pour suivre Ricoeur, qu'on peut supposer que ces phénomènes primitifs servent de "préface à la volonté" depuis laquelle prend forme la décision qui, elle, (s')interprète.26 Et, l'on développera, à travers une sociologie qui leur est sensible, l'idée que ces mêmes phénomènes primitifs, d'une certaine manière, s'enchevêtrent dans la volonté, disposent à l'action et à sa réception, sensibilisent aux impératifs sociaux, et finalement questionnent l'épigénèse des sentiments sociaux et l'aperception intuitive des biens et des maux humains. Il y a toujours, chez Ricoeur, un plan plus primitif que celui de la morale et de la politique, et à partir duquel on peut pourtant les éclairer par un souci de description et de réflexion qui nous permettent précisément de voir se toucher, se mettre en tension et s'interpénétrer ces deux plans de réalité. C'est ce contact qu'il me semble important de délimiter, en tant qu'il donne une orientation ou une inclination à la base du propre comme du commun. Il est à délimiter sachant que le vouloir-vivre, cette poussée reçue passivement vers la vie (qui est aussi une sensibilité organique qui propage un mouvement vers le monde), reste particulièrement équivoque au niveau social et du vivre ensemble : il n'y a pas, entre ces deux plans, affirme Ricoeur, de "dérivation naturaliste", de "tendance centrale" ni de "système formé" sur cette base. Les raisons d'un oubli (sous le signe de l'herméneutique)
C'est alors sous l'égide d'un retour sur ce plan plus primitif que nous développerons notre argument, non sans avoir tenté de comprendre auparavant pourquoi la sociologie interprétative ne lui a guère accordé d'importance. Paradoxalement, la raison de cette négligence tient au parcours intellectuel de Ricoeur et à l'évolution de sa contribution à la philosophie, cette sociologie interprétative ayant principalement tenu en vue son oeuvre à partir de la discussion engagée avec la tradition herméneutique et non pas depuis ce qu'il a nommé sa méthode phénoménologique de description essentielle encore prédominante dans le premier tome de la Philosophie de la volonté où ce plan du primitif joue un rôle beaucoup plus nodal que dans le reste de son oeuvre. Avant d'entreprendre ce retour à quelques prolongements et discussions sociologiques de la Philosophie de la volonté, il convient donc de préciser la nature du point d'inflexion depuis lequel Ricoeur donne tournure à son anthropologie de l'homme capable. Il indique lui-même, à propos de la césure introduite par le livre II de Finitude et culpabilité, chercher à prolonger son enquête sur la volonté par une réflexion sur les expériences ressortissant à la volonté mauvaise, en engageant alors une excursion dans les régions symboliques, mythiques et poétiques dans lesquelles l'expérience du mal s'est inscrite.27 C'est là que Ricoeur installe sa méthode d'interprétation sous le signe de l'herméneutique. La question centrale devient alors celle du déchiffrage du sens, de la médiation de l'expérience vive par le langage et les textes, de l'innovation sémantique (via la métaphore et l'intrigue) et finalement de la capacité du langage à produire une manière nouvelle d'habit le monde. Les considérations sur les figures de l'homme capable peuvent en être rapprochées dans la mesure même où le "je peux" traduit déjà l'expression d'un sens émanant d'un sujet agissant et parlant, donnant au soi, par opposition au moi solipsiste, une structure dialogale et un caractère réflexif indirect. Le "je peux" thématisé par Ricoeur, en tant qu'il se suppose désignable de l'extérieur et signifiant pour le monde, en tant qu'il garde ouvert le passage à l'évaluation qui rend la capacité extensible du plan physique au plan éthique, en tant, enfin, qu'il est toujours déjà impliqué dans les linéaments d'une théorie de l'ipséité, présuppose un référent commun. Il repose sur une relation particulière de sens à partir duquel le soi prend forme devant et par la médiation d'autrui. Les capacités de base de l'homme capable, toujours déjà prises dans une dynamique fondatrice de l'identité personnelle, sont attestées et assumées par soi-même, affirmées ou promulguées auprès de, imputées devant autrui, reconnues par, etc. Elles appellent un vis-à-vis et chaque compartiment d'étude de ces capacités implique autrui, mettant en jeu l'estime de soi et ouvrant simultanément des registres de figuration, on pourrait dire de publicisation, à travers lequel le soi peut monter en manifestation et s'affirmer (en changeant ou en maintenant l'identité). C'est bien là, comme on l'a vu plus haut, qu'une sociologie interprétative sensible à l'expression de soi en public vient à s'alimenter, lorsque par exemple se pose la question de la réciprocité à travers l'exigence de reconnaissance pesant sur ces capacités.28 Elle y travaille, nous l'avons vu plus haut, une conception narrative pour penser l'événement social, elle insiste sur la notion de sujet et sur l'expérience qui tient lieu d'événement pour le soi, elle reprend la notion d'action à partir d'une sémantique, elle creuse enfin les questions politiques et morale là où se révélent les failles de l'homme capable (où le "je peux" est paradoxalement mis en continuité avec sa négation). Enfin, c'est aussi depuis la subtile différenciation des registres d'implication du tiers dans la définition de l'identité du soi (attestation, témoignage, imputation,) que repose un dialogue fertile avec la question des régimes d'épreuve qualifiant et garantissant les propriétés du monde.29 L'assurance intime de pouvoir se rendre capable Tentons dés s d'ouvrir plus nettement la réflexion sociologique à partir de l'axe du projet phénoménologique de la Philosophie de la volonté. Cela va notamment nous permettre de nous montrer sensibles à des "modes d'engagement dans le monde" faiblement travaillés par la sociologie interprétative pour des raisons exposées plus haut, et qui réclament, entre autres choses, une fine gradation des phénomènes corporels et affectifs que mettent en jeu différentes manières de faire du commun et d'y prendre part.30 La Philosophie de la volonté donne à penser le niveau à la fois le plus involontaire et le plus élémentaire de la conduite humaine, précisément là où se joue non pas la capacité avérée manifeste mais, en amont, la possibilité même de pouvoir. Il y a là, en jeu, comme le fondement ou l'assise de tout "je peux". Sa description psychologique de l'involontaire amène Ricoeur à cerner progressivement cette assise existentielle et vitale qui ne correspond donc pas à un pouvoir d'agir mais à un se sentir en vie auquel on ne peut que consentir et depuis lequel un fondement corporel vient pourtant entretenir la subjectivité et, en un sens, beaucoup plus loin, porter l'humanité. Pour accéder à cette assise il faut, dit Ricoeur, "régresser vers la pure vie" ou "descendre en moi les degrés de l'existence depuis ma liberté jusqu'à l'involontaire absolu," se montrer attentif à ce qui se trouve "en deçà de toute prise de position du vouloir," renforcer une aire de signification largement indéterminée et qui touche aux "sentiments vitaux qui nous révèlent cette vie qui n'est plus ni motif ni pouvoir d'agir, mais condition, situation, fondement, et à laquelle il n'est plus possible que de consentir."31 Il y va d'un même mouvement de régression par dévoilement progressif des couches primitives pour éclairer les "savoir-faire préformés ou innés," "premier pouvoir d'agir non appris" sur lequel pourra se construire "l'infini des gestes nouveaux."32 C'est à partir de ces savoir-faire préformés qu'une partie du monde s'intègre au schéma corporel dans un savoir de familiarité qui à la fois limite et reflète le pouvoir d'une spontanéité vivante. Et si l'habitude progresse passivement, par une série d'acquisitions fiabilisées dans son environnement pratique familier, elle étend corrélativement "le rapport primitif à notre corps qui précède tout savoir et tout vouloir portant 39 8 sur la structure du mouvement. Je ne sais pas et je ne veux pas dans son détail la structure de ce que je peux."33 Dans le sens opposé, en remontant du plus primitif l'expérience sensible aux qualités mêmes de l'humanité auxquelles ce primitif est "secrètement présent", on peut graduellement élargir l'analyse aux problématiques du monde commun et retracer le difficile cheminement de l'édification humaine. C'est d'une certaine façon sous cet angle qu'il faut apprécier l'effort de Ricoeur pour relier, sans brisure dans l'analyse, les questions primitives du "vouloir vivre" ou du "désir comme émotion" à celles, successivement, du "vouloir vivre ensemble" ou du "désir de vivre bien" qui s'expriment plus clairement dans l'organisation politique et morale d'une communauté historique. C'est aussi dans les termes d'une même démarche progressive qu'il faut relever les amorces qui, partant de cette "note d'existence" qu'introduit le corps à travers un ensemble de puissances involontaires, permettent de rejoindre sa typologie des capacités de base située à la clé de son anthropologie de l'homme capable. La réflexion sociologique est donc poussée, par cette réflexion sur les expériences corporelles primitives, jusqu'au point où il importe de comprendre ce qui donne et consolide, en amont des capacités, une assurance intime de pouvoir se rendre capable.34 Cette question de l'assurance intime de pouvoir nous impose l'examen de ce qui la sédimente et lui confère une dimension d'enracinement et de sol porteur dans le monde préréflexif à partir duquel les choses vont pouvoir aller de soi. Ce n'est donc pas au regard d'un sens donné à l'action que la question doit être abordée, mais en termes de fondation d'une présomption de constance d'une réalité familière ordonnée au corps percevant et, par là, capable de libérer une puissance vitale de base. L'assurance intime de pouvoir est à distinguer de la confiance en soi dont Ricoeur fait un des enjeux de la reconnaissance des capacités de base puisqu'elle permet au sujet de croire en ses capacités et de dire sans trembler "je peux". La confiance demande déjà de mettre en commun une appréciation positive, d'être ainsi dans le vis-à-vis d'un autrui, fusse de "soi-même comme un autre". L'assurance intime de pouvoir ne repose pas, à la différence de la confiance, sur des preuves objectives attestables mais sur un sentir intérieur vital qui consolide le cours habituel des facultés corporelles et se transmet donc dans des réalisations amples et aisées qui vont de soi. Elle enracine, plut que la conscience de prendre à son compte un pouvoir, la naïveté pré-réflexive du moi qui se meut dans un espace pratique usuel intégré par familiarité au schéma corporel. Pour mieux cerner cet entourage familier, nous l'associons au terme porteur d'habité. C'est en particulier la densité concrète de l'espace affectif et matériel de l'habité qui confère cette assurance intime de pouvoir.35
L
'espace familier
habité
Il me semble envisageable d'établir une anthropologie de l'habité attentive à cette quête primitive d'enracinement solide qui offre à l'homme l'assurance intime de pouvoir se laisser aller dans l'évidence du vivable, dans la banalité du bien portant. Il y est alors question de comprendre l'apparition et l'affermissement de cette assurance à partir de la continuité qui tient liés l'émergence et le sentiment du vital, les premiers savoir-faire basiques préformés et les habitudes qui s'installent à demeure au milieu des choses rendues familières à l'usage. Quelque chose vient bien toucher, à travers ce fil de continuité qui se traduit dans l'expérience naturelle d'un monde familier, à l'intime genèse de l'assurance de pouvoir : une mobilité facilité dans un espace enveloppant bienveillant, un frayage dans l'aisance, la sédimentation de repères sensoriels 9 Marc Breviglieri qui consolident un attachement, un ancrage stabilisé à travers les choses qui vont de soi, un refuge consolant et permettant le repos, la détente et la récupération de l'effort, la rêverie et les parcours hasardeux de l'imagination, etc. Bref l'habité s'édifie sur une "architecture" protectrice et attachante, base porteuse d'un se laisser aller en toute sûreté vers le monde où s'enracine pour l'homme une puissance de base, une puissance involontaire et irréfléchie de pouvoir.36 Pour ne pas perdre la trace de Ricoeur dans cette réflexion qui s'est orientée vers une anthropologie de l'habité, il faudrait dessiner une ligne qui fait se rejoindre directement les pages de la Philosophie de la volonté consacrées à l'habitude et son caractère de seconde nature, à la partie de La mémoire, l'histoire, l'oubli consacrée à la mémoire ancrée dans l'espace habité, et au rôle qu'elle occupe dans la phase documentaire de l'opération historiographique.37 Dans le premier ouvrage, l'habitude avance, nous dit Ricoeur, avec une "espèce de mination", s'appropriant les choses qui deviennent les prolongements habités du corps qui acquiert une "puissance de facilitation" et une "spontanéité naturelle" dont la face ténébreuse est la "chute dans l'automatisme."38 Dans le second ouvrage, le souvenir de l'espace habité fournit au témoignage les fragments d'une mémoire intime et partagée entre proches, prenant pour repère ultime l'" ici absolu" du corps propre. Ces deux manières d'aborder l'habité se rejoignent dans une phénoménologie qui, partant de l'expérience vive du corps étendu à un espace qui en prolonge les propriétés, met au coeur de la réflexion la question de l'avoir (successivement de l'acquisition de l'habitude et de l'avoir-été dans le souvenir). La fragilité spatiale du maintien de soi (fêlure du sol et désorientation)
L'exigence de fondement à laquelle répond la position de Ricoeur place cette dimension primitive, où se trouve l'assise de tout "je peux", au devant du difficile chemin que parcourt l'édification du soi limité et rendu faillible par les nécessités incoercibles qui s'attachent à la condition corporelle et terrestre. Difficile advenue de soi-même où la volonté ne peut se projeter qu'en se laissant incliner par des motifs qui l'altèrent, où l'homme ne tend vers un style essentiel qu'en glissant vers la faute et en consentant à ne pas pouvoir tout accomplir dans les régions de l'expérience humaine. Nous venons de souligner en italique les termes qui renvoient à l'accomplissement de l'humanité de l'homme et donc, implicitement, aux charges qui lui sont confiées pour qu'il puisse révéler, affirmer et maintenir son soi dans un monde commun. Il est un point où culmine l'amplitude du soi, on pourrait dire l'amplitude de l'humain, dans la pensée de Ricoeur ; il s'agit du maintien de soi qui donne à l'identité narrative une implication éthique, qui rend le soi comptable de ses actions devant un autre.39 Mais au fil de notre argument, on a pu entrevoir comment l'espace affectif et matériel stabilisé de l'habité donne une consistance au maintien de soi d'une manière différente que ne le fait la narration du récit. Il y a, pour reprendre l'opposition polaire proposée par Ricoeur entre le caractère et l'ipséité, et pour modifier sensiblement la hiérarchie qu'il établit en faveur de l'ipséité, une dimension primitive de l'expérience sensible fondée et ée dans une stabilité ou une permanence (mêmeté) sur laquelle le soi ou l'ipséité doivent pouvoir préalablement prendre appui pour s'établir dans la promesse.40 Cette dimension primitive assurée dans la permanence laisse alors se manifester ce qui, du vivant, se maintient et se reconnaît dans le caractère (une certaine disposition thymique devant la vie, une forme d'humeur constante qui marque l'horizon arrière du caractère). Et cette pointe fidèle de vivant en l'humain n'est jamais si expressive que lorsque la personne se laisse familièrement aller, ou, comme on dit, "se décharge", diffusant, en quelque sorte, une sensibilité organique propre sur le monde. De manière à continuer d'approfondir notre discussion sur l'anthropologie de l'homme capable, et marquant au passage un lieu crucial d'investigation pour la piste sociologique que nous proposons, il me semble important d'en venir au problème que pose la fragilisation de l'habité, et la menace qu'elle fait peser sur l'assurance intime de pouvoir. Plus loin, c'est en effet toute une compréhension sociologique de la faillibilité humaine qui est mise en jeu, et notamment au regard de la prise en charge institutionnelle qui pourrait lui être adressée et qui marque les formes variées de solidarités dont les sociétés font preuve. Commençons par replacer cette menace pesant sur l'assurance intime de pouvoir face au thème de l'homme capable en regardant comment Ricoeur envisage la vulnérabilité des différentes capacités. Son analyse de la fragilité humaine s'engage par la discussion des formes d'incapacité qui minent chacun des quatre faisceaux de pouvoir-faire, donnant à la souffrance le sens d'une diminution de la puissance d'agir.41 Il y a, dit-il, des "mutilations basiques" (ne pas pouvoir dire, faire, promettre, se tenir responsable) qui mettent en péril l'attestation de soi auprès d'autrui, ruinant la confiance en soi et faisant que "le souffrir se donne conjointement comme altération du rapport à soi et du rapport à autrui." Mais en deçà de l'axe soi-autrui à partir duquel se reconnaît l'expérience humaine universelle du souffrir, dans l'intime réserve de l'espace familier habité, on peut déceler un ensemble de phénomènes qui n'est pas en mesure de s'inscrire sur cet axe. Phénomènes dont le retentissement pour autrui n'est souvent ni parfaitement intelligible, ni parfois même perceptible du point de vue extérieur, mais qui tant ébranlent le sol affectif où s'appuyer et fragilisent pour finir l'assurance intime de se rendre capable de quoique ce soit. Alors que Ricoeur parle d'une intensification du soi dans la souffrance (qui semble alors "exister à vif"), on pourrait ici évoquer, par contraste, la fêlure discrète qu'introduit la souffrance sur le sol de l'élan vital, la plainte ou le gémissement s'effaçant à mesure que, ne sachant plus où s'arrimer, l'homme se défait tandis que le vivant en lui s'épuise subrepticement dans l'expérience qui l'affecte. Mais comment alors prend forme cette faillite de l'assurance intime de pouvoir mise en jeu par l'effondrement de l'espace familier habité? Deux pistes peuvent être ici explorées. C'est d'un côté une disposition à aller vers le monde, un allant ou une avenance, qui précède en quelque sorte l'expérience hors de soi, qui est mise en question. Les ressorts affectifs affaiblis confinent à rester en deçà de soi, à vivre les épreuves péniblement, à aborder le monde sur la modalité retenue de l'inhibition. C'est de l'autre côté une orientation du soi qui est mise en question par la désorganisation de la stabilité des ancrages, par l'altération des paysages du monde familier et l'appauvrissement de la topographie affective élémentaire. Dans les deux cas l'émergence de la sphère intersubjective est d'une certaine manière compromise dans sa dimension de rapport en public, à la fois par une fatigue à s'exposer qu'exprime le repliement du soi et une difficulté à trouver des repères relationnels lorsque le soi se retrouve désorienté par la déstabilisation profonde ou la destruction des ancrages affectifs.
43 L'homme défait face au monde commun
Ce que nous venons de nommer "la dimension intersubjective dans sa dimension de rapport en public" fait entrer en scène un jeu de questions plus directement sociales ou sociologiques. C'est ici que peut s'établir une réflexion que nous avons désignée par ailleurs comme étant placée sous "l'horizon du ne plus habiter" et de "l'homme défait."42 Les attaches affectives familières défaites, et l'assurance première d'être en mesure de pouvoir se trouvant fragilisée, le social est mis en question parce que l'investissement dans le monde et dans l'existence, et parce que l'engagement envers le commun, sont eux-mêmes interrogés dans la limite de ce qu'ils exigent de l'homme. Et c'est alors précisément l'exigence capacitaire que requiert toute participation au monde commun qu'il convient d'analyser envisager ces limites où pointe un lieu majeur de la fragilité humaine. Par exemple, le maintien de soi est d'autant moins assuré, lorsque se défait l'espace affectif et matériel stabilisé de l'habité, que les structures anthropologiques de l'espace collectif sont plus individualisantes et autonomisantes, moins protectrices et soutenantes. La faillite du soin dans l'expérience historique des politiques de capacitation
C'est sur ce fond d'intelligibilité des institutions qu'une enquête sur les politiques sociales a tenté d'explorer de manière systématique cet horizon du ne plus habiter.44 Cette enquête a fait l'objet d'une réflexion suscitée par le problème du refus d'hébergement des sans-abri à propos duquel une équipe de chercheurs de l'Observatoire du Samusocial m'invitait à réfléchir avec eux.45 Il y était question d'appréhender les dimensions éthico-pratiques du geste de soin engagé dans l'aide sociale par une "phénoménologie appliquée" aux expériences limites de la survie.46 En passant par les états limites auxquels s'affrontent les équipes mobiles (délires profonds, ébriété avancé, épuisement radical, etc.), il s'agissait non seulement de voir ce qui, de la fragilité humaine, pouvait encore être mis en partage, mais aussi d'envisager comment la tonalité normative de la politique sociale était amenée ici à se dévoiler à l'épreuve du seuil de son hospitalité. Le recours à l'examen d'une vingtaine de prises de vue vidéo réalisées au cours de l'hiver 2006-2007 auprès d'une équipe de nuit du Samusocial a d'abord permis de contribuer à l'effort descriptif visant à cerner une activité professionnelle dont la complexité concernait au premier chef la perte progressive ou brutale, pour les sans-abri, de leur capacité première à 12 vouloir et pouvoir faire l'expérience du contact avec autrui.47 Cela supposait des intervenants sociaux une appréhension délicate de la situation, dans un régime inhabituel d'inter-affectivité située, en quelque sorte, sous les exigences de l'interaction en public que réclame normalement tout service à l'usager. Le tact professionnel engagé dans la pratique professionnelle soignante se dirigeait alors vers le problème de la vitalité affectée de la personne de manière à pouvoir appréhender certains états limites manifestant une perte radicale de l'assurance intime de pouvoir. L'état d'abdication et de régression dans lesquels le sans-abri avait pu sombrer affichait un resserrement extrême de son ouverture au monde et de la temporalisation de sa présence, de son quoi et de son comment faire dans le monde commun. La surface de contact était ainsi rendue étroite et hermétique : les prises affectives qui auraient permis d'ouvrir cette surface étaient trouvées avec peine, l'horizon d'expériences passées ou futures qu'emportaient les intervenants se disloquaient devant une attitude rivée au présent immédiat et figée dans des "routines de survie" endurcies. Aux limites de l'approche pragmatique : une autre compréhension de l'humain
En présentant en quelques lignes cette étude réalisée auprès la population la plus abîmée des sans-abri, observée de surcroît dans des états-limites et de crise qui sont souvent temporellement limités, j'ai voulu donner un sens à ma lecture de la Philosophie de la volonté qui m'a permi préalablement de réfléchir sur ce que j'ai intitulé "l'espace habité que réclame l'assurance intime de pouvoir." Ici, prise dans toute sa largeur sémantique, la notion de pouvoir a permis de retrouver l'analyse que Ricoeur poursuit sur le thème de l'homme capable afin d'en discuter une limite. L'anthropologie de l'homme capable délimite des pouvoirs de base qui établissent l'agent humain au rang de son humanité. Celle-ci suppose la double émergence du soi 13 Marc Breviglieri (qui se reconnaît un pouvoir) et d'un autrui (qui certifie ce pouvoir au regard d'un monde commun). Voilà dans quelle mesure le "je peux" (s')avance toujours avec une confiance assurée. Mais en procédant ainsi, nous avons remarqué que Ricoeur laisse sensiblement en marge de l'analyse le plan du vital. J'ai voulu alors, dans mon argument, revenir sur l'interdépendance de l'ordre du vital et de l'ordre de l'humain qui est pourtant initialement soulignée dans la Philosophie de la volonté. Il y apparait notamment la description d'"expériences primitives", et j'ai voulu introduire la notion d'espace familier habité pour garder en vue un lieu privilégié où le sentiment du vital est préservé mais où ces expériences sensibles primitives entretiennent déjà un rapport plus direct et complexe à la vie commune que ce que désigne et suppose le "milieu ambi " où s'équilibre la vie. J'ai ainsi placé cet espace familier habité au rang d'un espace transitionnel entre ce milieu ambiant et le domaine public où s'épanouit toute l'amplitude humaine à travers ses capacités reconnues. En amont de la confiance d'être capable (de présenter des capacités qui connotent explicitement le proprement humain), on doit pouvoir envisager l'existence d'une assurance intime de pouvoir se rendre capable (comme s'il fallait d'abord être assuré de pouvoir pouvoir). Cette existence en amont présuppose l'espace habité où se manifeste la constance d'une réalité familière et où s'ouvre un monde qui s'intègre au schéma corporel sur le mode de l'évidence naturelle. Voilà précisément ce qui est fragilisé chez ces sans-abri qui refusent le soin et qui se montrent à la fois désorientés dans l'espace rationnel de la prise en charge et en retrait dans le contact relationnel qui préside au soin. L'habitation laminée ou anéantie a contribué a ouvrir une brèche dans l'assurance intime de pouvoir, resserrant l'espace relationnel sur une zone d'insensibilité, ultime rempart pour se protéger d'avoir à aller de l'avant et à devoir faire progresser un pouvoir dans l'expérience du monde. Il reste à envisager pourquoi la sociologie, et notamment la sociologie interprétative d'inspiration pragmatiste dont il a été question en début d'article, n'envisage pas, ou peut-être même néglige, ce qui se joue à partir de cet espace familier habité et de son altération ou sa ruine. Cette ruine est l'horizon sur lequel prend forme un épuisement capacitaire, où s'éteignent les ressorts vitaux de l'activité et s'estompe la constance d'une réalité familière naturalisée qui facilite le laisser-aller vers le monde. Or le développement tout en régression de l'épuisement capacitaire est en tout point opposé à ce que soutient, dans sa radicalité, l'idéologie du pragmatisme, qui valorise l'expérience et présuppose par là que toute expérience déploie une dynamique généreuse par laquelle se cumulent des capacités individualisées de toute sorte. L'expérience est avant toute chose une expérience acquise tout en étant pleinement subie, et en ce sens, même le subir continue de dispenser la promesse d'une positivité. Et symétriquement, l'axe de valeur pragmatiste fondé par l'expérience avance une pointe de mépris sur tout phénomène susceptible de ralentir le flux de l'expérience, de bloquer son développement et sa " d'implication expansive." La méprisant dans son idéologie la plus radicale, le pragmatisme en prend mal la mesure, et il reste plutôt désemparé devant un phénomène tel que l'épuisement capacitaire dont la logique propre supposerait de prêter attention au blocage devant l'expérience, à l'appauvrissement de l'espace de contact, à la pétrification de tout élan vital ou la régression des capacités engagées dans l'interaction.49 Or, l'évolution même des politiques d'empowerment, dont on peut dire avec J.-L. Genard qu'elles partagent l'anthropologie capacitaire du courant pragmatiste, continuent de miser sur cette logique d'implication expansive et individualisante qui est en attente incessante de formation de capacités.50 Un malaise profond provenant de l'exercice de ces politiques d'aide tient au fait qu'elles maintiennent cette logique, même en réduisant les exigences de "capacitation" auprès des usagers les plus fragilisés. 2 Cf. le chapitre 2 de Laurent Thévenot, L'action au pluriel: Sociologie des régimes d'engagement (Paris: La Découverte, 2006). 3 Paul Ricoeur, Soi-même comme un autre (Paris: Éditions du Seuil, 1990). 4 Jean-Louis Genard, La grammaire de la responsabilité (Paris: Les Editions du Cerf, 1999); Alain Erhenberg, La fatigue d'être soi (Paris: Odile Jacob, 1998). 5 Luca Pattaroni, Politiques de la responsabilité: Promesses et limites d'un monde fondé sur l'autonomie (Genève: thèse de doctorat, 2005); Fabrizio Cantelli et Jean-Louis Genard, eds., Action publique et subjectivité (Paris: MSH, L.g.d.j., 2007); Marc-Henry Soulet, "Une solidarité de responsabilisation?" in Le travail social en débats, ed. Jacques Ion (Paris: La Découverte, 2005), 86-103. 6 Dispositifs à la fois managériaux, participatifs, de médiation ou d'accompagnement éducatif et social; Thomas Perilleux, Les tensions de la flexibilité: L'épreuve du travail contemporain (Paris: Desclée de Brouwer, 2001); Romuald Normand, L'école normale: Disciplines, pédagogies et politique (Sarrebruck: Editions Européennes, 2010); Luca Pattaroni, "Les compétences de l'individu: travail social et responsabilisation," in Faire face et s'en sortir, eds. V. Châtel et M.-H. Soulet (Fribourg: Editions Universitaires, 2002), 107-114. 7 Paul Ricoeur, "Autonomie et vulnérabilité," in Le Juste 2 (Paris: Éditions Esprit, 2001), 91. 8 Luc Boltanski "L'effet Ricoeur dans les sciences humaines," Esprit (Mars-avril 2006): 49-54. 9 Patrick Pharo et Louis Quéré ed., Les formes de l'action: Sémantique et sociologie (Paris: Éd. de l'EHESS, Raisons pratiques 1, 1990). 10 Cf. notamment,
la première livraison des Raisons pratiques, les articles de Michel Barthélémy, Nicolas Dodier et Louis Quéré.
11 Michel de Fornel et Louis Quéré eds., La logique des situations: Nouveaux regards sur l'écologie des activités sociales (Paris: Éd. de l'EHESS, Raisons pratiques 10, 1999). 12 Par exemple, dans un texte qui reprend le témoignage de Primo Levi dans Si c'est un homme, Johann Michel propose une lecture où ce trajet d'intériorisation pose son empreinte sur le tragique de l'action. Il fait émerger dans son analyse une agonistique maximale du plan pratique: l'expression effrayante des conditions de vie concentrationnaires contrastent avec des "capacités d'adaptation secondaire" qui permettent le maintien fébrile d'une identité et génèrent de fait des événements à la source du récit.
Johann Michel, "L'identité personnelle à l'épreuve de l'expérience concentrationnaire: essai de microanalyse de Si c'est un homme de Primo Levi," Social Science Information 44 (4) (2005): 655682. 16 13 Louis Quéré, "Le public comme forme et comme modalité d'expérience," in Les sens du public: Publics politiques, publics médiatiques, eds. D. Cefaï et D. Pasquier (Paris: PUF/CURAPP), 113-135; Cédric Terzi, "L'expérience constitutive des problèmes publics. La question des 'fonds en déshérence'," in Le public en action: Usages et limites de la notion d'espace public en sciences sociales, eds. C. Barril et al. (Paris: L'Harmattan, 2003), 25-50. 14 Philippe Gonzalez, Voix des textes, voies des corps: Une sociologie du protestantisme évangélique (Fribourg: thèse de doctorat, Université de Fribourg et EHESS, 2009); Cédric Terzi, "Qu'avez-vous fait de l'argent des juifs?" Problématisation et publicisation de la question "des fonds juifs et de l'or nazi" par la presse suisse, 1995-1998" (Paris: thèse de doctorat, EHESS, 2004). 15 Renaud Dulong, Le témoin oculaire: Les conditions sociales de l'attestation personnelle (Paris: Éd. EHESS, 1998); Cédric Terzi et Alain Bovet, "La composante narrative des controverses politiques et médiatiques Pour une analyse praxéologique des actions et des mobilisations collectives," Réseaux 132 (2005): 111-132; Anna Borisenkova, "Narrative Refiguration of Social Events Paul Ricoeur's Contribution to Rethinking the Social," Études Ricoeuriennes/Ricoeur Studies 1 (1) (2010): 87-98. 16 Michèle Leclerc-Olive, Le dire de l'événement (biographique) (Lille: Presses du septentrion, 1997); Muriel Gilbert, L'identité narrative: Une reprise à partir de Freud de la pensée de Paul Ricoeur (Genève: Labor & Fides, 2001); Corinne Squire, "lire les récits" in La société biographique: une injonction à vivre dignement, eds. I. Astier et N. Duvoux (Paris: L'Harmattan, 2006), 55-71. 17 Michaël Pollak, L'expérience concentrationnaire: Essai sur le maintien de l'identité sociale (Paris: Métailié, 1990); Pascale Pichon et Tierry Torche, S'en sortir: Accompagnement sociologique à l'exploration autobiographique d'un ancien SDF (Saint-Etienne: Presses Universitaires de SaintEtienne, 2010). 18 Viviane Châtel, L'inexistence sociale: essai sur le déni de l'autre (Fribourg: Éditions Universitaires de Fribourg, 2008); José Manuel Resende et Alexandre Cotovio Martins, "La médecine palliative et la suspension des jugements d'ordre général dans un régime de proximité: entre guérir et soigner," in Actes éducatifs et de soins, entre éthique et gouvernance, eds. Felix et Tardif (2010). URL: http://revel.unice.fr/symposia/actedusoin/index.html?id=649; Pedro José Garcia Sanchez, "De ville en cité: La (re)connaissance de la vulnérabilité," in La reconnaissance à l'épreuve: Explorations socioanthropologiques, eds. Jean-Paul Payet et Alain Battegay (Lille: Presses du Septentrion, 2008), 277284. 19 Le terme de "primitif," bien que discret dans l'analyse, est disséminé dans l'ensemble de l'oeuvre de Ricoeur. Dès les deux tomes de la Philosophie de la volonté, il se subdivise en deux niveaux de phénomènes: d'un côté il est question d'" expériences sensibles primitives" qui expriment des valeurs de niveau vital et orientent ou disposent le corps dans les premières composantes de la vie en commun, d'un autre côté, il est question des "symboles primitifs du mal" ou encore de la fonction primitive du symbole à travers laquelle l'humanité inscrit son expérience du mal moral. J. Michel a fait usage du terme dans ce second sens en travaillant sur l'idéologie dont il a cherché à dévoiler la fonction primitive encadrée par la médiation symbolique de l'action. C'est toutefois le premier sens 17 Marc Breviglieri 49 qui inspirera notre réflexion dans le présent article. Nous ne parlerons pas ici de la composition possible entre ces deux acceptions, réservant cela pour un travail ultérieur.
Johann Michel, "Le paradoxe de l'idéologie revisité par Paul Ricoeur," Raisons politiques 11 (3) (2003): 149-172. 20 Paul Ricoeur, Philosophie de la volonté 1. Le volontaire et l'involontaire (Paris: Aubier, 1988 [1950]), 397. 21 On pourra regarder avec intérêt un essai de R. Legros qui se penche sur les deux traditions de la pensée occidentale (les
Lumières
et le romantisme) qui ont le plus clairement tenté de définir l'idée d'humanité et les exigences pesant sur l'homme pour l'accomplir: Robert Legros, L'Idée d'humanité (Paris: Editions Grasset & Fasquelle, 1990). 22 Ricoeur, Philosophie de la volonté 1, 117. 23 Ricoeur, Philosophie de la volonté 1, 82 et 386. 24 Hubertus Tellenbach, La mélancolie (Paris: PUF, 1979), 84 26 Ricoeur, Philosophie de la volonté 1, 219. 27 Paul Ricoeur, Philosophie de la volonté 2: Finitude et culpabilité (Paris: Éditions Points, 2009 [1960]). 28 Marcel Hénaff, Le prix de la vérité – le don, l'argent, la philosophie (Paris: Seuil, 2002); Paul Ricoeur, Parcours de la reconnaissance: Trois études (Paris: Stock, 2004). 29 Nous retrouvons ici un lieu fort du dialogue que Ricoeur a entretenu avec les auteurs des Economies de la grandeur: Luc Boltanski et Laurent Thévenot, De la justification: Les économies de la grandeur (Paris: Gallimard, 1991). Un ensemble d'autres points de débat et de convergence est présenté dans l'article de Laurent Thévenot livré dans le présent numéro. 30 Thévenot, L'action au pluriel. 31 Ricoeur, Philosophie de la volonté 1, successivement 399, 86 et 219. 32 Ricoeur, Philosophie de la volonté 1, 217-219. 33 Ricoeur, Philosophie de la volonté 1, 269. 34 Il ne s'agit donc pas ici de traiter de la confiance assurée qui accompagne l'affirmation "je peux," mais de ce qui ressortit plutôt de sa condition de possibilité. Par ailleurs, nous voulons donner à la notion de pouvoir une amplitude maximale, refusant d'
en faire l'otage de l'usage générique qu'en
font
notamment les sciences politiques,
et
pla
çant
sur une ligne de continuité: le
pou
voir politique (que Ricoeur
envi
sage dans la continuité d'Arendt comme volontés plurielles
de
vivre-
ensemble),
la capacité
(et le pouvoir reconnu de dire "je peux"), et l'assurance in
time
de pouvoir (et le consentement intuitif à une "spontanéité nourricière" qui incline à ouvrir un espace de potentialité). 35 Cette démarche prend appui sur le "régime d'engagement dans la familiarité" intégré à la sociologie des régimes d'engagement de L. Thévenot (Thévenot, L'action au pluriel). C'est à partir de ce régime que 18 j'ai tenté de mettre en place un projet systématique consistant à replacer au coeur des questions sociales et humaines, à travers les trois domaines d'études que sont l'usage, l'habité et le soin, la difficile question des relations de proximité dans la vie commune (Marc Breviglieri, L'usage et l'habiter: Contribution à une sociologie de la proximité (Paris: thèse de doctorat, EHESS, 1999)). Je souligne aussi l'échange de longue date avec O. Abel sur la question de l'habiter et plus loin: Olivier Abel, "Habiter la cité," Autres temps 46 (1995): 31-42. 36 On reviendra dès après sur l'enjeu fondamental d'une compréhension de l'anéantissement ou de la dislocation du monde habité et la plongée dans l'angoisse qu'ils supposent. Un ensemble de gestes basiques qu'on a l'intime assurance de pouvoir réaliser (sans en passer par la reconnaissance d'autrui), - bouger son corps sans chuter, avoir faim et manger, se reposer et trouver le sommeil, (etc.) -, sont ici à questionner en ce qu'ils peuvent perdre leur évidence naturelle à cause du rétrécissement de la sphère existentielle de l'espace familier habité. S'ouvre un espace de dialogue avec une anthropologique philosophique ou une psychopathologie phénoménologique qui, prenant au sérieux l'érosion du sentiment vital ou la "perte de l'évidence naturelle," contribue à la compréhension de l'errance existentielle et de la détérioration de l'expérience commune (Wolfgang Blankenburg, La perte l'évidence naturelle: Une contribution à la psychopathologie des schizophrénies paucisymptomatiques (Paris: PUF, 1991); Tellenbach, La mélancolie). Notons au passage l'importance que l'école francophone de ce courant accorde à la pensée de Ricoeur (Jeanine Chamond, Les directions de sens: Phénoménologie et psychopathologie de l'espace vécu (Argenteuil: Le cercle herméneutique, 2004); Georges Charbonneau, Introduction à la psychopathologie phénoménologique, t.1 (Paris: MJW Fédition, 2010). 37 Paul Ricoeur, La mémoire, l'histoire, l'oubli (Paris: Éditions du Seuil, 2000). Nous mettons de côté ici sa réflexion, un peu plus di
stante
de notre propos, sur la compréhension de la ville et de l'architecture comme récits (Paul Ricoeur, "Architecture et narrativité," Urbanisme 303 (1998): 44-51). Nous
regrettons
aussi de ne pas avoir eu sous les yeux avant la rédaction de cet article la thèse
de HyeRyung Kim, Habiter: perspectives philosophiques et éthiques. De Heidegger à Ricoeur (Strasbourg: thèse de doctorat, Université de Strasbourg, 2011). 38 Ricoeur, Philosophie de la volonté 1, 273; voir aussi: Claire Marin, "L'être et l'habitude dans la philosophie française contemporaine," Alter 12 (2004): 149-172. 39 Ricoeur, Soi-même comme un autre. 40 Rappelons que Ricoeur ne fait pas qu'opposer les deux termes, mais s
'occup
e
aussi
de les
faire
tenir ensemble,
précisément
à
travers
sa
théorie
de
l'
identité
narrativ
e
. L'effort, dans la présente analyse, consiste en un sens
à relever
l
'
importance
du pôle de la mêmeté
, ce qui sera d'autant plus apparent lorsque
nous nous pencherons sur la question de
l'altération de
l'espace habité
. 41 Ricoeur, "Autonomie et vulnérabilité," 89; Paul Ricoeur, "La souffrance n'est pas la douleur," Autrement 142 (1994). 19 Marc Breviglieri 51 42 Marc Breviglieri, "L'horizon du ne plus habiter et l'absence du maintien de soi en public," in L'héritage du pragmatisme: Conflits d'urbanité et épreuves de civisme, eds. Cefaï et Joseph (La Tour d'Aigues: Éditions de l'Aube, 2002), 319-336. 43 Je renvoie au programme de recherche de L. Thévenot consacré à la comparaison des grammaires du commun et du différend: Laurent Thévenot, "Autorités
à l'épreuve de la critique. Jusqu'aux oppressions du 'gouvernement par l'objectif'," in Quel présent pour la critique sociale?, ed. B. Frère (Paris: Desclée de Brouwer, à paraître). 44 Elle rejoint par ailleurs deux autres enquêtes portant sur le même horizon du ne plus habiter: l'une sur le déplacement migratoire et l'homme déraciné, l'autre sur la dislocation du monde familier de l'adolescent à travers les épreuves qui le font hésiter devant les attendus de grandeur et de maturité propres à l'âge adulte.
Marc Breviglieri, "De la cohésion de vie du migrant: déplacement migratoire et orientation existentielle," Revue Européenne des Migrations Internationales 26: 57-76
;
Marc Breviglieri, "Ouvrir le monde en personne. Une anthropologie des adolescences," in Adolescences méditerranéennes: L'espace public à petits pas, eds. M. Breviglieri et V. Cicchelli (Paris: L'Harmattan, 2007
),
19-60
. 45
Édouard Gardella, Erwan Le Méner et Chloé Mondémé, Les funambules du tact: Une analyse des cadres du travail des EMA du Samusocial de Paris (Paris: Observatoire du Samusocial, 2007). Une ethnographie plus systématique de l'aide d'urgence aux sans-abri de Paris a ensuite été mise en place: Daniel Cefaï et Édouard Gardella, L'urgence sociale en action: Ethnographie du Samusocial (Paris: La Découverte, 2011). 46 Natalie Depraz, Comprendre la phenomenologie: Une pratique concrète (Paris: Armand Colin, 2006). 47 Marc Breviglieri, "Le "corps empêché" de l'usager (mutisme, fébrilité, épuisement): Aux limites d'une politique du consentement informé dans le travail social," La voix des acteurs faibles: De l'indignité à la reconnaissance, ed. J.-P. Payet, F. Giuliani & D. Laforgue (Rennes: PUR, 2008), 215-229. 48 Hans Lipps, Recherches pour une logique herméneutique (Paris: Vrin, 2004). 49 Ces arguments liés au problème posé par l'affaiblissement et la défaillance humaine à l'analyse pragmatique, problèmes qui concernent aussi la réalisation des politiques dites de "capacitation," ont été développés dans: Marc Breviglieri, "Penser la dignité sans parler le langage de la capacité à agir," in La reconnaissance à l'épreuve: Explorations socio-anthropologiques, ed. J.-P. Payet et A. Battegay (Lille: Presses du Septentrion, 2008), 83-92. Ils ont été par la suite repris par J. Stavo-Debauge qui les a travaillés au profit d'une enquête sur la difficile mobilisation d'accidentés du travail: Joan StavoDebauge, "Des "événements" difficiles à encaisser: Un pragmatisme pessimiste," in L'expérience des problèmes publics, ed. D. Cefaï et C. Terzi (Paris: Éd. de l'EHESS, Raisons pratiques 22, 2011), 191224. 50 Jean-Louis Genard, "Une réflexion sur l'anthropologie de la fragilité, de la vulnérabilité et de la souffrance" in Destins politiques de la souffrance, ed. T. Périlleux et J. Cultiaux (Toulouse: ERES, 2009), 27-45. 20 51 D'une manière comparable, Ricoeur dit que l'adulte est déficitaire au regard de ce que l'homme perd de l'adolescence en la quittant: Ricoeur, Philosophie de la volonté 1, 404..
| 34,145
|
39/tel.archives-ouvertes.fr-tel-02084039-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,839
| 12,570
|
79 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Démarche méthodologique
Figure 40: Comparaison des structures des populations de E. coli dans l'eau de la perte du karst de Norville pour les campagnes de prélèvements antérieures et postérieures à l'application des arrêtés du 7 mars 2012 et 27 avril 2012 relatifs à la mise aux normes des fosses septiques. ( ) pour le phylogroupe A,( ) pour le phylogroupe B1,( ) pour le phylogroupe B2,( ) pour le phylogroupe C,( ) pour le phylogroupe D,( ) pour le phylogroupe E, ( ) pour le phylogroupe F,( ) pour les Escherichia Clades et ( ) pour les E. albertii. Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats 3. Résultats 3.1. Validation de la base de données microbiologique
La contamination de l'hydrosystème karstique dépendant de l'usage du bassin versant, les résultats microbiologiques des campagnes de prélèvements ne peuvent être comparées que pour un usage semblable du bassin versant. Il a été montré par l'étude de la diversité des populations de E. coli et de leur profil d'antibiorésistance que les sources de contamination d'origine fécale majoritaires du Bébec sont le pâturage de bovins et la présence de fosses septiques défectueuses sur le bassin versant (Ratajczak et al., 2010 ; Laroche et al., 2010). L'étude de la diversité des population d'E. coli nous a permis de vérifier l'impact des arrêtés du 7 mars 2012 et du 27 avril 2012 imposant la réhabilitation des installations d'assainissements non collectifs présentant un risque avéré de pollution pour l'environnement. La structure des populations de E. coli a été comparée par la méthode Clermont (Clermont et al., 2013) à la perte pour (i) 417 souches de E. coli prélevées entre le 21/02/2007 et le 17/02/2012, antérieurement à la mise en application des arrêtés et (ii) 157 souches de E. coli prélevées entre le 25/03/2015 et le 12/12/2017, postérieurement à la mise en application des arrêtés ; soit un total de 574 souches de E. coli sans discrimination du forçage climatique lors des prélevement. La Figure 40 montre qu'il existe une différence significative (valeur p =5,7.10 -16) de la structure des populations de E. coli contaminant les eaux de l'hydrosystème de Norville avant et après la mise en application des arrêtés du 7 mars 2012 et du 27 avril 2012, en juillet 2012, les phylogroupes A (valeur p<2,2.10-16), B1 (valeur p=2.10-4), B2 (valeur p=2.10-4), et F (valeur p=6.10-3) (figure 40). Le rapport du nombre de souche appartenant au phylogroupe A sur le nombre de souche appartenant au phylogroupe B1 (A/B1) permet de determiner la principale source de contamination de l'hydrosystème de Norville (Synthèse bibliographique section 3.4., Diversité des populations de E. coli). Pour A/B1 proche de 1, la contamination microbiologique d'origine fécale de l'eau est majoritairement d'origine humaine. Au contraire pour A/B1 inférieur à 1, la contamination est majoritairement d'origine bovine. 81 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Figure 41: Diagramme de construction de IndiCE. Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats 3.2. Élaboration de IndiCE
L'indicateur de conditions hydrologiques propices à la contamination de l'eau par E. coli (IndiCE) a été élaboré en se basant sur l'hypothèse que la contamination entrant dans un hydrosystème karstique résulte du relargage de bactéries en surface du sol, provoqué par la formation d'une lame d'eau dépendant de la pluviométrie du jour et des pluies antérieures. La démarche de construction de l'indicateur a été réalisée en 3 étapes (i) le calcul de l'indicateur de forçage pluviométrique Ifp correspondant à la quantité de pluie du jour interagissant avec le sol, (ii) le calcul de l'indicateur de pluviométrie antérieures API correspondant aux pluies des jours précédents ayant interagit avec le sol et (iii) le calcul du produit Ifp et API donnant IndiCE, l'indicateur de contamination des eaux par E. coli (Figure 41). IndiCE permet de définir les conditions hydrologiques menant au relargage des bactéries présentes en surface du sol. Associé à une étude des sources de contaminations sur le bassin versant il permet de caractériser le risque d'entrée de E. coli dans l'hydrosystème karstique. La morphologie du karst détermine le transfert de la contamination dans l'hydrosystème et sa concentration à la source du karst. Dans un hydrosystème karstique binaire comme celui de Norville, la contamination de l'eau de la source karstique dépend directement de la contamination entrant dans l'hydrosystème.
3.2.1. Indicateur de forçage pluviométrique
Pour déterminer les conditions hydrologiques menant à la formation d'une lame d'eau il est nécessaire, dans un premier temps, de déterminer un indicateur de forçage pluviométrique ( p). Ifp correspond à la quantité de pluie interagissant avec le sol par jour, definie simplement par la différence entre la hauteur de pluie et la quantité d'eau retournant à l'atmosphère (l'évapotranspiration) selon la formule suivante : = où − (Équation 1) : date pour laquelle est calculée IfpD, : indicateur de forçage pluviométrique (mm) : Hauteur de pluie cumulée du jour D (mm) et : Evapotranspiration du jour D (mm). Les valeurs d'Ifp négatives ont été ramenées à 0. Pour calculer cet indicateur il est nécessaire d'avoir les données d'évapotranspiration journalière qui permettent de prendre en compte les variabilités saisonnières spécifiques d'un site d'étude ; en effet l'évapotranspiration dépend de la température et des radiations solaire du jour. Il existe plusieurs modèles pour calculer l'évapotranspiration sur un bassin versant.
Choix du modèle pour le calcul de l'évapotranspiration
L'évapotranspiration réelle (ETR) représente l'eau réellement perdue par celle-ci sous forme de vapeur, l'évapotranspiration potentielle (ETP), l'eau susceptible d'être perdue dans les mêmes conditions quand elle n'est plus facteur limitant. Quand l'eau n'est pas facteur limitant, ETR devient par définition égal à ETP. En modélisation pluie-débit, l'ETP est souvent utilisée car, contrairement à l'ETR, son estimation ne nécessite que la connaissance de paramètres liés à l'atmosphère. Ces paramètres sont plus homogènes à l'échelle du bassin et plus facilement mesurables que des paramètres tels que la nature du sol et l'état hydrique du sol, dont la connaissance est nécessaire pour estimer l'ETR (Oudin, 2004). 83 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
140,00 121,5 119,44 120,00 110,68 100,00 108,7 103,90 80,00 ETP (mm) 98,62 97 89,5 72,1369,9 66 55,72 60,00 48,2 44,00 34,8734,8 40,00 22,6 16,98 20,00 0,00 Mois juin juillet Année aout septembre octobre novembre 8,95 11,2 décembre 9,04 14 janvier 27,3 20,03 7,8 février 2016 mars avril mai juin 2017
Figure 42: Les modèles d'Oudin (2014) et Penman Monteith (1965) donnent des résultats semblables pour le calcul de l'évapotranspiration potentielle (ETP) sur une année, cumul mensuel. ( ) ETP calculée d'après le modèle d'Oudin ; ( ) ETP calculée d'après le modèle de Penman Monteith.
35 30 25 PE OUDIN (MM) TEMPÉRATURE (°C) 20 15 10 5 0 17232630 3 6 9 1316202326 1 5 8 121518222529 1 7 10141721242731 4 7 101518222529 1 5 8 121518242731 4 7 10141721 Jour Mois -5 Année -10 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 101112 1 2 3 4 5 6 7 8 9 101112 2013 2014 2015 2016 2017
Figure 43: L'évapotranspiration potentielle (PE) calculée d'après le modèle d'Oudin suit les variations de températures liées aux saisons. Chronique de température et de PE Oudin de 2013 à 2017, pas de temps journalier. ( ) PE Oudin (mm), et ( ) température (°C). 84 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Pour choisir le modèle de calcul de l'ETP le plus adapté à cette étude, deux modéles ont été comparés (i) le modèle de Penman Monteith (Monteith, 1965) utilisé par Météo France et (ii) le modèle d'Oudin (Oudin, 2004). Les travaux de Penman (1948) ont permis d'établir une formule de l'ETP combinant les principes physiques du bilan d'énergie et des ajustements empiriques issus de formules aérodynamiques. Le modèle de calcul de l'évapotranspiration potentielle de Penman Monteith se base sur la taille et la distribution des stomates, la vitesse du vent et les propriétés aérodynamiques de la surface de la plante (Monteith, 1965). Il requiert des données de température, humidité relative, vitesse du vent et radiations solaires. Un suivi météorologique précis et complet du site d'étude est nécessaire pour obtenir ces paramètres. L'utilisation de valeurs estimées pour remplacer les données manquantes peut être à l'origine d'une erreur de l'estimation supérieure à 30% (Cordova et al., 2015). La paramétrisation du modèle par le choix des formules d'aérodynamiques, de résistance de surface et du couvert végétal du site étudié peut avoir un impact significatif sur l'exactitude de l'estimation de l'évapotranspiration (Ershadi et al., 2015). Le modèle d'Oudin utilise comme données d'entrées la température, le jour étudié et la latitude. Ces données permettent le calcul du rayonnement solaire par la méthode de Morton (1983). Ce modèle permet d'obtenir de meilleurs estimations que 27 autres formulations d'évapotranspiration potenti (dont le modèle de Penman Monteith) pour l'étude de ruissellement sur un bassin versant pour des applications de modélisation pluie-débit (Oudin et al., 2005). Pour valider le choix du modèle de calcul de l'ETP sur le site de Norville, les données de potentiel d'évapotranspiration calculées d'après le modèle d'Oudin ont été comparées aux données fournies par météo France calculées selon le modèle de Penman Monteith (Monteith, 1965) (Figure 42). L'ETP d'Oudin a été calculée selon la méthodologie developpée dans sa thèse à l'aide du tableur excel disponible à cette adresse https://webgr.irstea.fr/modeles/modeledevapotranspiration/. Il y a une différence de 1,3 mm par jour en moyenne entre les valeurs calculées avec les 2 modèles pour le site d'étude de Norville entre juin 2016 et juin 2017. 85 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Figure 44 : L'évapotranspiration potentielle (mm) calculée selon la méthode d'Oudin est proportionelle à la température (°C) 6 0 5 5 Pluviométrie (mm) Ifp Figure 45 : Ifp ( ) (différence entre la pluviométrie et l'ETP) montre une meilleure corrélation qu'Ifp* ( ) (différence entre la pluviométrie et la température) avec la pluviomètrie pour les deux classes de températures étudiées, respectivement (A) entre 5 et 10° et entre 15°C et 20°C 10 4 15 3 20
25 2 30 1 35 0 Jour Mois Année 40 1 8 15 22 29 5 12 19 26 5 12 19 26 2 9 16 23 30 7 14 21 28 4 11 18 25 2 9 16 23 30 6 13 20 27 3 10 17 24 1 8 15 22 29 5 12 19 26 3 10 17 24 31 1 2 3 4 5 6 7 8 9 10 11 12
2017 Figure 46: Variations de l'évapotranspiration potentielle (ETP), la pluviométrie et l'indicateur de forçage pluviométrique (Ifp) sur l'année 2017. ( ) ETP en mm, ( ) pluviométrie en mm et ( ) Ifp au pas de temps journalier. 86 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Pour vérifier s'il est possible de simplifier le calcul d'Ifp en évitant l'utilisation de l'évapotranspiration potentielle, potentiellement source d'incertitude, un Ifp* a été calculé selon la formule suivante ∗ = où − (Équation 2) : date pour laquelle est calculée IfpD, : indicateur de forçage pluviométrique (mm) : Hauteur de pluie cumulée du jour D (mm) et : Tempérautre du jour D (°C). Pour comparer Ifp et Ifp* en fonction de l'ETP et de la pluviométrie pour des gammes de températures représentatives, deux classes de température pour lesquelles l'ETP est significativement différente ont été determinées. La Figure 44 montre une différence significative de l'ETP pour des températures comprises entre 5 et 10°C (0,9±0,6 mm) et pour des températures comprises entre 15 et 20 °C (3,2±0,7 mm). Les deux Ifp ont été tracés en fonction de la hauteur de pluie ( ) pour chacune des gammes de température definit précedemment (Figure 45). Les coefficients de determination (R2) de chaque série a été calculé, ceux correspondant à Ifp étant plus proche de 1 que ceux d'Ifp* pour les deux gammes de température ce qui montre une meilleure corrélation d'Ifp avec pour des températures entre 5 et 10°C et 15 et 20°C qui sont les plus représentées en sur le site étudié. La simplification du calcul d'Ifp par le remplacement de la température à la place de l'ETP ne donne pas de résultats concluant.
Calcul de l'indicateur de forçage pluviométrique
L'ETP calculée selon le modèle d'Oudin permet le calcul d'Ifp selon la formule de l'équation 1. La figure 40 montre les variations de l'ETP calculée d'après le modèle d'Oudin et la différence entre la hauteur de pluie et l'indicateur de forçage pluviométrique (Ifp). Alors que la hauteur de pluie cumulée par jour moyenne est de 2,5 (± 0.3) mm, Ifp moyen par jour est de 1,6 (±0.3) mm car il prend en compte l'ETP (Figure 46). Pour les périodes ou l'ETP est maximale, les mois les plus chauds (juillet at août), la différence entre Ifp et la hauteur de pluie maximale. 87 0 5 10 15 20 25 30 35 Jour 1 3 5 7 9 1113151719212325272931 2 4 6 8 1012141618202224262830 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 Mois 7 8 11 12 Année 2013
2013 Figure 47: Chronique de pluviométrie turbidité et conductivité électrique à la source du karst de Norville ( )conductivité électrique moyennée par jour en μS/cm, ( ) turbidité moyennée par jour (NTU) enregistrées à la source du karst de Norville, ( ) pluviométrie cumulée par jour en mm et ( ) évènements pluvieux de 10 mm.
Tableau 8: Réponse hydrologique à la source après un évènement pluvieux de 10 mm. 29/07/2013 08/11/2013 19/12/2013 10 10 9 Différentiel de conductivité à la source (μS/cm) 38 182 20 Différentiel de turbidité (NTU) -45 -227 -10 Tableau 9 : Parmis les 9 IndiCE testés dont les paramètres k et différent, les IndiCE A et D présentent les meilleurs coefficients de corrélation avec la concentration en E. coli de l'eau de la perte
Figure 48 : Le test de sensibilité des 9 IndiCE présentés dans le tableau 8 montrent une corrélation exponentielle entre les IndiCE A et D et la concentration en E. coli de l'eau de la perte. (A) IndiCE en fonction de la concentration en E. coli de l'eau de la perte avec ( ) IndiCE A, ( ) IndiCE B, ( ) IndiCE C, ( ) IndiCE D, ( ) IndiCE E, ( ) IndiCE F, ( ) IndiCE G, ( ) IndiCE H, ( ) IndiCE I et (B) les courbes de tendance exponentielles des 9 IndiCE. Turbidité (NTU) Conductivité électirqieue (μS/cm)
Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats 3.2.2. Indicateur de pluviométrie antérieure
La Figure 47 montre la réponse hydrologique du système karstique aux évènements pluvieux, enregistrée par la turbidité et la conductivité électrique à la source. Pour 3 évènements pluvieux de 10mm cumulé en 24h, les variations de la turbidité et conductivité électrique par rapport à leur niveau de base – appelées ici différentiels – sont très différentes (Tableau 9). En effet, la formation d'une lame d'eau est le résultat de l'interaction entre les précipitations et un sol saturé dans lequel l'eau ne peut plus s'infiltrer. L'état de saturation du sol d'un bassin versant peut-être évaluée par un indice de précipitations antérieures (Kohler, 1951) noté API calculé, pour chaque date D considérée, selon la formule suivante : =
∑ ( − )× (Équation 3)
Où : date pour laquelle est calculé (jour), : hauteur de pluie cumulée sur 24 h pour la date −, : facteur de pondération pour la date −, : nombre de jours d'antériorité considérés. Le facteur de pondération permet de prendre en compte la « vidange » du sol, c'est-à-dire la diminution de sa saturation, au cours du temps, c'est généralement une fonction décroissante qui est utilisée.
3.2.3. Calcul de l'indicateur de conditions hydrologiques propices à la contamination de l'eau par E. coli (IndiCE)
Le calcul de IndiCE correspond au produit de l 'indicateur de pluie antérieur API et de l'indicateur de forçage pluviométrique Ifp: = × (Équation 4)
3.3. Calibration de IndiCE pour le site de Norville
Pour calibrer l'IndiCE sur le bassin versant de Norville étudié ici, deux facteurs peuvent être adaptés : le nombre de jours à prendre en compte ( ) et le facteur de pondération de, tous deux necessaires pour le calcul de. Le choix du nombre de jours pris en compte pour calculer a été testé pour différentes valeurs choisies empiriquement. Pour déterminer, 3 fonctions ont été testées : une fonction linéaire décroissante déterminer pour varier de 1 à 0 en jours, une fonction exponentielle décroissante déterminée selon le même modéle et f(x) =1. 89 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Figure 49: Chronique de pluviométrie, IndiCE, Ifp et API (Indicateur de Pluies Antérieures) pour les mois de janvier et juin 2017, pas de temps journalier. ( ) pluviométrie cumulée par jour en mm ( ) IndiCE, ( ) Ifp, et ( ) API). Figure 50 : La chronique d'IndiCE ( ) et de pluviométrie ( ) de 2013 à 2017 montre un comportement d'IndiCE variable en fonction des saisons et de la pluviométrie Figure 51 : IndiCE est majoritairement distribué entre 0 et 1 Tableau 10 : Les gammes d'IndiCE de 2013 à 2017 sont semblables avec une moyenne de 3,03 excepté pour l'année 2015 exceptionnellement sèche 90
Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Sur ce
site
d'étude il semblerait que la prise en compte de 5 ou 15 jours de pluie antérieures ne change pas significativement l'IndiCE, les R2 sont d'ailleurs strictement identiques pour les IndiCE A et D. Pour plus de prudence il est choisi de prendre en compte 15 jours de pluie antérieure, en effet plus le nombre de jour pris en compte est important plus l' « effet mémoire » de l'indicateur sera important. APID sur 15 jours peut alors être défini, en combinant les équations 1 et 3, selon la formule suivante : =
∑'( )×# − ( ) (Équation 5) Soit, = (∑'( − )×# ( ) )×( − ) (Équation 6)
3.4. Chroniques d'IndiCE sur le site de Norville de 2013 à 2017
La Figure 49 montre les différences de comportement des élements API et Ifp et d'IndiCE en regard de la pluviométrie. API augmente avec un retard d'un jour suite à un évenement pluvieux et revient à 0 entre 2 et 4 jours sans évènements pluvieux. Ifp augmente en simultané des évènements pluvieux et revient immédiatement à 0 en l'absence de pluie. La combinaison d'API et Ifp permet à IndiCE d'augmenter le jour même d'un évenement pluvieux proportionnellement à la quantitié de pluie interagissant avec le sol, et de prendre en compte l'intensité dans la durée et l'ancienneté d'un évènement pluvieux. Le temps de latence avant le retour à 0 simule simplement l' « effet mémoire » du sol, c'est-à-dire sa saturation en eau. IndiCE est majoritairement distribué entre 0 et 1 (Figure 51), présente une moyenne de 3,03, et une médiane de 0,59. Sur 1789 jour, 4,8% des valeurs de IndiCE sont égale à 0 ; 51% comprises entre 0 et 1 ; 24% entre 1 et 5 ; 20% entre 5 et 44,5. L'année 2015 exceptionnellement sèche (Partie 1,section 6. 91 B 0 5 10 15 20 25 30 35 0 2 4 6 8 10 12 14 16 18 20 1 2 3 4 5 1 2017 25 20 15 10 5 0 6 C 2017 Jour Mois Année 0 2 4 6 8 10 12 14 7 9 10 11 12 2017 6 8 1 6 11 16 21 26 31 5 10 15 20 25 2 7 12 17 22 27 1 6 11 16 21 26 1 6 11 16 21 26 31 5 10 15 20 25 30 5 10 15 20 25 30 4 9 14 19 24 29 3 8 13 18 23 28 3 8 13 18 23 28 2 7 12 17 22 27 2 7 12 17 22 27 Jour Mois Année IndiCE Jour Mois Année IndiCE 40 45 IndiCE 16 14 12 10 8 6 4 2 0 40 35 30 25 20 15 10 5 0 Pluviométrie (mm) Pluviométrie (mm)
A Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Résultats
Figure 52: La représentation graphique de IndiCE et de la hauteur de pluie journalière sur un mois d'hiver et un mois d'été A. ( )Pluviométrie cumulée journalière et ( ) IndiCE, année 2017. B. Mise en évidence du mois de janvier C. et de juin, pas de temps journalier. 92 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation de IndiCE : corrélation avec les paramètres hydrologiques
La Figure 52A montre la correspondance entre la hauteur de pluie et IndiCE pour l'année 2017. Le mois de janvier 2017 (Figure 52B), correspondant à la période hivernale, est caractérisé par un début de mois humide suivi d'une période sèche de 10 jours. IndiCE est de 14,5 après l'évènement pluvieux de 14,4 mm du 12 janvier. A la fin de la période pluvieuse, le 15/01/17 IndiCE est de 11,6 ; il redescend à 0 après 5 jours secs. Pour l'évènement pluvieux intense du 29 janvier de 20 mm en 24 h, IndiCE passe de 0 à 19 en une journée. Le mois de juin 2017 (Figure 52C), correspondant à la période estivale, est caractérisée par 2 évènements pluvieux important. Un premier évènement pluvieux entre le 5 et le 7 juin présente un cumul de pluie de 12 mm et une valeur maximale de IndiCE de 8,3 le 07/06/2017 suivi d'un retour de l'indicateur à 0 en 5 jour en l'absence de pluie. Le second évènement pluvieux les 2728/06/2017 présente un cumul de pluie de 26,2 mm et une valeur maximale de IndiCE de 13 suivi d'une période avec une faible pluviométrie, en moyenne 1 mm de hauteur de pluie par jour négligeable car inférieure à l'évapotranspiration potentielle. IndiCE revient à 0 le 02/07 soit 4 jours après la fin de l'évènement pluvieux.
3.3. Validation de IndiCE : corrélation avec les paramètres hydrologiques
L'objectif est de valider l'indicateur IndiCE pour identifier les évènements pluvieux à l'origine de ruissellement sur le bassin impactant la qualité des eaux de l'hydrosystème. Ces évènements sont signalés par une augmentation de la turbidité provoquée par le transport de particules et une diminution de la conductivité provoquée par l'arrivée d'eaux de pluie moins minéralisées que les eaux de l'aquifère de la craie. La décorrélation entre la turbidité et la concentration en E. coli dans l'eau montrée en introduction peut être due à des évènements de contaminations provoqués par un lessivage du sol avec peu ou pas d'érosion qui ne sont donc pas signalés par une augmentation de la turbidité. Tous les évènements de contamination ne sont pas signalés par une augmentation de la turbidité, cependant un évènement pluvieux provoquant augmentation de la turbidité et diminution de la conductivité électrique, sur un sol contaminé mènera à la contamination de l'eau entrant dans l'hydrosysytème. C'est pourquoi, bien que la turbidité et la conductivité électrique ne soient pas des indicateurs indirects de contamination fiables à eux seuls, ils sont ici utilisés pour valider IndiCE même si on ne s'attend pas à une corrélation linéaire entre IndiCE et ces paramètres. Les paramètres hydrologiques sont mesurés à la source de l'hydrosystème pour cibler les évènements de surface influant sur la qualité des eaux de source. Des tentatives de calcul de l'IndiCE prenant en compte ces paramètres ont été testées notamment le calcul du rapport de la conductivité électrique sur la turbidité, le calcul des différentiels de turbidité et conductivité électrique sans permettre, dans le cadre de ces travaux, de les utiliser directement pour le calcul d un indicateur pertinent. 93 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation de IndiCE : corrélation avec les paramètres hydrologiques Différentiel de conductivité électrique Différentiel de turbidité 300 200
100 0 -100 -200 -300 -400 -500 Jour 17 21 25 1 5 9 13 17 21 25 29 2 6 10 14 18 22 26 30 4 8 12 16 20 24 28 1 5 9 13 17 21 25 29 3 7 11 15 19 23 27 31 4 8 12 16 20 24 28 1 5 9 13 17 21 25 29 3 7 11 15 19 23 27 31 4 8 12 16 20 24 28 2 6 10 14 18 22 26 30 Mois 2 3 4 5 6 7 8 9 10 11 12
Ann
ée 2013
Figure 53: Chronique de ( ) différentiel de turbidité et ( ) différentiel de conductivité électrique mesurées à la source du karst de Norville au pas de temps journalier, année 2013. Figure 54: Distribution d'IndiCE ( ) en fonction du différentiel de turbidité. Figure 55 : Distribution d' IndiCE ( ) en fonction du différentiel de conductivité électrique. 94 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation de IndiCE : corrélation avec les paramètres hydrologiques
La validation de l'indicateur est réalisée en analysant sa relation avec les différentiels de turbidité et conductivité calculés d'après les enregistrements à la source de l'année 2013 (Figure 53). Ces différentiels sont obtenus en calculant la différence entre la valeur moyenne en période sèche, soit 20 NTU pour la turbidité et 560μS/cm pour la conductivité électrique, et sa valeur moyenne le jour j. Soit : = 20 − #$ = 560 − Où :différentiel de turbidité du jour D et : la turbidité moyenne du jour D et :différentiel de conductivité électrique du jour D et : la conductivité électrique moyenne du jour D.
3.3.1. Corrélation entre IndiCE et différentiel de turbidité
Afin de vérifier la corrélation entre les pics de turbidité à la source et IndiCE, la distribution des valeurs d' IndiCE lors de pics de turbidités est analysée. Les pics de turbidité correspondent à un différentiel de turbidité inférieur à -50. La Figure 54 montre qu'IndiCE est significativement supérieur (valeur p= 4,5.10-6) pour les valeurs correspondant aux pics de turbidité (<-50 NTU), avec une moyenne de 4, par comparaison avec IndiCE pour des valeurs de turbidité de -50 NTU et plus présentant une moyenne de 2. IndiCE est supérieur à 2 pour les pics de turbidité. 3.3.
2.
Corrélation
entre IndiCE et différentiel
de
conductivité électrique
Afin de vérifier la corrélation entre la diminution de la conductivité électrique à la source et IndiCE, la distribution d'IndiCE pour des chutes de conductivité (différentiels de conductivité électrique > 50 μS/cm) est étudiée. La Figure 55 montre que CE est significativement supérieur pour des différentiels de conductivités supérieurs à 50μS/cm, avec une moyenne de 5, par comparaison avec les valeurs d' IndiCE pour un différentiel de conductivité <50 μS/cm, présentant une moyenne de 2,7. IndiCE est supérieur à 3 pour les chutes de conductivité. Pour conclure lorsque l'IndiCE calculé est supérieur à 3, des pics de turbidité et des chutes de conductivités sont enregistrés à la source montrant une arrivée d'eau de surface potentiellement contaminée par des bactéries.
3.3.3. 95 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation de IndiCE : corrélation avec les paramètres hydrologiques
Figure 56: Chronique de ( ) IndiCE années 2015 à 2017 pas de temps journaliers et concentration en E. coli de l'eau ( )de la perte et ( ) de la source. Figure 57: ( ) concentration en E. coli dans les eaux de la perte (A et B) de l'hydrosystème karstique de Norville en fonction de IndiCE pour un même usage du bassin versant.
96 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville 3.3. Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville
Pour vérifier la calibration de l'IndiCE, comme indicateur de conditions hydrologiques propice à la contamination par E. coli des eaux sur le site de Norville, la concentration de E. coli dans l'eau de la perte (surface) en fonction d'IndiCE est étudiée. Pour valider IndiCE comme un indicateur de contamination des eaux d'un hydrosystème karstique par E. coli, les valeurs calculées de IndiCE sont comparées à la concentration de E. coli dans l'eau de la source karstique de Norville. Pour aller plus loin l'origine de la contamination microbiologique en fonction d'IndiCE a été determinée par analyse de la diversité de E. coli dans l'eau de surface et de source de l'hydrosystème. Les campagnes de prélèvement étudiées dans la suite de ces travaux ont été réalisées à la perte et/ou à la source pour des conditions d'usage du bassin versant semblables, après l'application des arrêtés de 2012 et en présence de pâturage sur le bassin versant.
3.3.1. Relation entre IndiCE et la concentration en E. coli de l'eau
Afin de valider l'utilisation de IndiCE comme indicateur quantitatif de la contamination d'un karst par E. coli, ses valeurs calculées sont comparées aux valeurs de concentration en E. coli mesurées pour 13 campagnes de prélèvements d'eau à la perte et/ou à la source du karst de Norville. La Figure 56 montre que les campagnes de prélèvement d'eau de la perte et de la source ont été réalisées pour des conditions hydrologiques variées. La moyenne de IndiCE pour les campagnes de prélèvement est 4,8. Pour valider la calibration de IndiCE comme indicateur de contamination par E. coli de l'eau de surface, 7 campagnes de prélèvement de l'eau de la perte avec une concentration en E. coli allant de 20 620 UFC/100mL ont été étudiées. La Figure 57A montre que la concentration en E. coli est inférieure à 100 UFC/100mL pour les campagnes de prélèvement avec IndiCE inférieur ou égal à 1,5. La Figure 57B confirme que les campagnes de prélèvement caractérisées par un IndiCE supérieur à 1,5 présentent une concentration en E. coli significativement supérieure (885±30 UFC/100mL) à celles caractérisées par un IndiCE <1,5 (83,3 ± 50 UFC/100mL) (pvalue=0.049). La concentration en E. coli n'est pas significativement différente pour IndiCE allant de 3,8 à 15,7, ce qui suggère que l'intégralité des E. 97 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville
Figure 58: ( ) concentration en E. coli dans les eaux de la source de l'hydrosystème karstique de Norville en fonction de IndiCE pour un même usage du bassin versant 100%
90% 80% 0 5 2 0 3 0 4 1 3 5 5 0 7 70% 60% 22 50% 40% 63 30% 20% 14 10% 0% 1 1 IndiCE < 1,5 3 2 IndiCE > 1,5
Figure 59 : Structure des populations de E. coli dans l'eau de la perte en présence de pâturage en fonction de IndiCE ( ) phylogroupe A,( ) phylogroupe B1,( ) phylogroupe B2,( ) phylogroupe C,( ) phylogroupe D,( ) phylogroupe E, ( ) phylogroupe F,( ) Escherichia clades et ( ) E. albertii. 98 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville
En effet l'indicateur étant calculé au pas de temps journalier cette méthode permet de prendre en compte le temps de transfert dans l'hydrosystème karstique de Norville qui varie de 11 à 38 h. Comme observé à la perte, la Figure 58 montre à la source une valeur seuil de IndiCE de 1,5 au-delà de laquelle la concentration en E. coli est significativement supérieure ((2,13±2,8).102 UFC/100mL) à celles caractérisées par un IndiCE inférieur à 1,5 mm ((1,6±0,8).101UFC/100mL) (pvalue=0.01). La Figure 58 présente un évènement dont l'IndiCE est 27,5, ce qui correspond à un évènement extrême avec 40 mm de hauteur de pluie en 2 jours menant à une entrée d'eau de surface importante dans la perte. La conductivité à la source a atteint une valeur de 204 μS/cm (contre 600μS/cm en moyenne) signalant une arrivée importante d'eau peu minéralisée à la source ce qui explique la concentration maximale en E. coli de (6,33±2).102 UFC/100mL. La structure des populations n'est pas significativement différente entre la perte et la source. Des différences peuvent être observées et sont certainement dues à un échantillon statistiquement faible à la source, surtout pour IndiCE <1,5 qui est expliqué par la très faible (1,6.101 UFC/100mL à la source) contamination de l'eau pour ces périodes. Pour conclure il existe une valeur seuil de IndiCE comprise entre 1,5 et 3,3 au-delà de laquelle la concentration en E. coli de l'eau de la perte est supérieure à 100 UFC/100mL et celle de 'eau de la source à 50 UFC/100mL. Les concentrations en E. coli de l'eau de la perte et de la source pour des valeurs de IndiCE comprises entre 1,5 et 3,8 sont à étudier pour affiner la limite de la valeur seuil de IndiCE. IndiCE pourra alors être utilisé comme indicateur quantitatif de contamination de l'eau d'un hydrosystème par E. coli pour le site de Norville.
3.3.2. Relation entre structure des populations de E. coli et IndiCE Une analyse de la structure des populations de E. 99 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville
Figure 60 : Structure des populations de E. coli dans l'eau de la source en présence de pâturage en fonction de IndiCE ( ) phylogroupe A,( ) phylogroupe B1,( ) phylogroupe B2,( ) phylogroupe C,( ) phylogroupe D,( ) phylogroupe E, ( ) phylogroupe F,( ) Escherichia clades et ( ) E. albertii. 100 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville
La faune sauvage présente sur le bassin versant, composée de cervidés, sangliers, lapins et petits rongeurs est une source potentielle de contamination par des E. coli B2, les populations commensales de E. coli de ces espèces étant composé de 6,5% à 57% de B2. La Figure 60 montre qu'à la source la structure des populations est significativement différente pour les campagnes avec IndiCE <1.5 et celles avec IndiCE >1.5. Le phylogroupe B1 représente une proportion significativement supérieure dans la population de E. coli prélevées avec un IndiCE >1,5 (80%) par rapport à sa proportion dans la population de E. coli prélevées pour IndiCE <1,5 (42%). Pour IndiCE <1,5 la population de E. coli est plus diversifiée avec chaque phylogroupe représentant au moins 3% de la population (excepté le phylogroupe F non représenté), par opposition avec la population de E. coli pour IndiCE <1.5 dans laquelle les souches d'autres phylogroupes que B1 représentent 20% de la population. Comme dans l'eau de la perte, la structure des populations est significativement différente pour les campagnes avec IndiCE inférieur et supérieur à 1,5 ; les souches de phylogroupe B1 sont majoritaires pour IndiCE supérieur à 1,5 montrant une contamination en E. coli cultivables majoritairement d'origine bovine. Pour conclure pour IndiCE supérieur à 1,5, la contamination de l'eau de la perte et de la source est majoritairement d'origine bovine suggérant la formation d'une lame d'eau en surface du sol relargant les bactéries des fèces des bovins en pâturage sur le bassin versant, transitant ensuite dans le karst jusqu'à la source ; pour IndiCE<1,5 la structure des populations de E. coli très diversifiée suggère une contamination directe dans le cours d'eau de surface probablement liée aux animaux sauvages. 101 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Validation d'IndiCE comme indicateur prédictif de contamination en E. coli de l'eau de Norville Figure
61 : Pour IndiCE
( ) inf
érieur à la valeur seuil
,
l'eau du captage desinfectée
peut être distribuée et stockée.
En cas d'évenements pluvieux ( ) menant à l'augmentation d'IndiCE au-delà de la valeur seuil ( ) l'eau du captage peut soit être d'avantage desinfectée ou cesser d'être distribuée. 102 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Du calcul d'IndiCE à l'utilisation opérationelle 4. Du calcul d'IndiCE à l'utilisation opérationelle
Pour éviter la distribution d'une eau à la qualité non conforme, des analyses microbiologiques sont réalisées régulièrement sur l'eau des captages. Ces analyses visent principalement à dénombrer les E. coli et les entérocoques qui doivent être absents de l'eau distribuée dans le réseau d'alimentation en eau potable. Les méthodes de dénombrement classiquement utilisées demandent 24 à 48 h de culture avant l'obtention des résultats, des méthodes plus rapides existent comme la PCR, cependant cette méthode ne permet pas de discriminer l'état métabolique (viable, viable non cultivable ou morte) et les tarifs sont actuellement prohibitifs. La qualité microbiologique de l'eau ne pouvant pas être suivi en permanence l'eau brute est toujours désinfectée avant d'être distribuée, même dans les stations de traitement les plus minimalistes. E. coli est très sensible à la désinfection de l'eau par des traitements au chlore (ou de ses dérivés) ou aux UV. Cependant il a été montré depuis 1981 (LeChevallier et al., 1981) et confirmé plus récemment (Keegan et al., 2012) une corrélation négative entre l'efficacité de la désinfection et la turbidité de l'eau brute. Pour une turbidité supérieure à 1 NTU, le temps d'exposition aux UV ou les doses de désinfectants utilisés pour traiter l'eau doivent être augmentés (OMS, 2017) sans toutefois dépasser la limite de 0,1mg/L de concentration résiduelle de chlore dans l'eau distribuée. La turbidité est utilisée par les acteurs opérationnels de gestion des captages comme indicateur direct de contamination de l'eau pour deux raisons : un pic de turbidité peut être associé à l'entrée de bactérie dans l'hydrosystème, une concentration importante en particules dans l'eau peut limiter l'action désinfectante du chlore. La turbidité est généralement mesurée in situ en continue au niveau du captage et son augmentation est suivie de différentes mesures en fonction du niveau de traitement de l'eau brute au captage : (i) le traitement de la turbidité au captage (floculation, ultrafiltration) ; (ii) le recours à des ressources de substitution (interconnexion entre des réseaux de distribution, utilisation de réserves d'eau) ; (iii) des restrictions d'usages de l'eau. 103 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Du calcul d'IndiCE à l'utilisation opérationelle 104 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Conclusions et discussions 5. Conclusions et discussions
L'objectif de cette partie est de proposer un indicateur simple et facile d'utilisation, mesurable en continu par des paramètres facilement accessibles pour déterminer les conditions hydrologiques propices à la contamination en E. coli des eaux de surface et de source karstique. L'hydrosystème karstique de Norville a été largement étudié ces 10 dernières années permettant d'acquérir des connaissances sur son fonctionnement enregistré grâce à des mesures continues de conductivité électrique et turbidité. Le site de Norville a été choisi pour cette étude car il permet l'accès au point d'engouffrement principal de l'eau de surface alimentant la source. De plus la petite taille du bassin versant permet de contrôler facilement l'usage des sols et les sources potentielles de contamination microbiologique qui sont par ailleurs bien connues depuis les travaux de Ratajczak et Laroche. Ces deux points ont permis de bien caractériser la contamination en E. coli entrant dans l'hydrosystème et de calibrer l'IndiCE sur le bassin versant et l'eau de surface. La prochaine étape de test de cet indicateur consistera à la calculer pour d'autres bassins versants alimentant des sources karstiques, le calibrer sur la concentration en E. coli de l'eau de source puis le valider sur les données de turbidité et conductivité électrique et sur d'autres prélèvements d'eau. Une fois IndiCE calibré pour le bassin versant seules la pluviométrie et la températures, mètres facilement mesurables, sont nécessaires pour déterminer les périodes à risque de contaminations microbiologiques. Le transport des bactéries présentes sur le bassin versant par une lame d'eau est à l'origine de l'entrée d'eau contaminée par E. coli dans l'hydrosystème. La formation d'une lame d'eau dépend de la quantité de pluie interagissant avec le sol et de la saturation des sols qui peut être définie par un indicateur de pluies antérieures (Kohler, 1951). De nombreux travaux ont montré que l'utilisation des seuls paramètres précipitations et températures permet de modéliser le phénomène de ruissellement (Justin,1914 ; Vogel et al., 1999 ; Sellers, 1969 ; Hawley et Mc Cuen, 1982 ; Santos et Hawkins, 2011 ; Grillone et Baimonte, 2014). 105 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Conclusions et discussions 106 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Conclusions et discussions
La calibration des paramètres k (nombre de jours à prendre en compte) et du facteur pondérateur utilisés dans le calcul de APID par comparaison des différentes combinaisons possibles de la formule avec la concentration en E. coli de l'eau de la perte permet une adaptation à la configuration du site d'étude qui n'est pas prise en compte dans le calcul. En effet, la pente du bassin versant et la distance des sources de contaminations peuvent influencer sur la contamination de l'eau de l'hydrosystème (Yu et al., 2016) ils sont ici pris en compte de manière indirecte au travers de cette calibration. IndiCE permet également d'anticiper les épisodes de contamination microbiologique des eaux provoquées par le lessivage des sols: lors de périodes présentant un IndiCE élevé il est possible de déterminer quelle hauteur de pluie pourrait provoquer un épisode de contamination de l'hydrosystème au pas de temps journalier. L'utilisation d'IndiCE doit être couplée à une étude des sources de contamination potentielles sur le bassin versant étudié, celui-ci ne prenant pas en compte les contaminations directes des hydrosystèmes. IndiCE n'a pas pour vocation de remplacer un modèle prédictif de contamination des ressources en eau mais peut être utilisable dans le cas ou un modèle n'est pas calculable par exemple si le site ne peut être équipé de stations météorologiques et est difficilement accessible, ou pour des raisons de moyen et/ou de temps. Il peut permettre à des gestionnaires de ressources eau vulnérables à la contamination microbiologique d'anticiper et déterminer les conditions hydrologiques menant à la contamination de l'eau par lessivage du sol et ainsi de pouvoir anticiper la dégradation de la qualité de l'eau. C'est par cet aspect d'anticipation des évenements de contamination qu'IndiCE est un meilleur indicateur de qualité de l'eau que les tests microbiologiques ou la mesure de la turbidité. La comparaison de l'IndiCE avec la concentration et la diversité de E. coli dans l'eau de la perte et de la source de l'hydrosystème montre qu'il existe une valeur seuil de IndiCE comprise entre 1,5 et 3 au-delà de laquelle la concentration en E. 107 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Conclusions et discussions 108 Partie 2 : Proposition d'un indicateur de conditions hydrologiques propices à la contamination des eaux d'un hydrosystème karstique par Escherichia coli - Conclusions et discussions
Cette méthode demanderait la comparaison avec d'autres méthodes de source tracking avant d'être validée. D'autres indicateurs que E. coli et les coliformes ont été proposés pour identifier les sources de contamination microbiologique d'origine fécale. En effet la multiplication des E. coli dans les eaux environnementales et leur distribution chez un grand nombre d'espèces animales (tableau 5) sont des inconvénients majeurs pour l'utilisation de cette espèce bactérienne pour identifier laes source de contaminations d'origine fécale. La détection de virus entériques qui persistent plus longtemps que E. coli dans l'environnement (Tran et al., 2015), sont présents en très grandes quantités (plus d'un trillion de virus infectieux par gramme de fèces) dans les selles et l'urine des hôtes (Hunt et al., 2010) et sont spécifiques de leurs hôtes (Fong et al.,2005 et Ahmed et al., 2010) comme outil de source tracking pourrait être une bonne alternative (Hunt et al., 2010 et H. Lee et al., 2011). Cependant la méthode la plus simple de détection de ces virus est la PCR et demande donc une étape d'extraction d'ADN ou d'ARN qui présente des biais méthodologiques, de plus la sensibilité PCR quantitative peut être altérée par des inhibiteurs environnementaux (Wong et al., 2012). Un autre outil de source tracking de plus en plus utilisé est la détection et quantification de bactéries anaérobies du microbiote comme les Bacteroides et les Bifidobacterium qui sont présents à de plus hautes concentrations que les FIB dans les fèces de leurs hôtes (Savage, 2001) et sont très spécifiques de leurs hôtes (Field et Samadpour, 2007). De plus les bactéries anaérobies ne se multiplient généralement pas dans l'environnement (Bernhard et Field, 2000). La détection de séquences génétiques spécifique de l'hôte de Bacteroidales permet également une bonne discrimination de la source de contamination. Cependant les séquences génétiques spécifiques à cibler ne sont déterminées que pour quelques espèces animales, auxquels s'ajoute l'être humain, et sont peu identifiées pour les espèces sauvages (Ahmed et al., 2009) ce qui est problématique pour le site de Norville vraisemblablement contaminé par la faune sauvage.
| 25,250
|
36/hal.archives-ouvertes.fr-hal-03158761-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,565
| 5,389
|
Vers un cadre méthodologique de conception des systèmes humain robots ad VERS UN CADRE MÉTHODOLOGIQUE DE CONCEPTION DES SYSTÈMES HUMAINS-ROBOTS
M. BOUNOUAR R. BÉARÉE Arts et Métiers Institute of Technology, LCFC 4, Rue Augustin Fresnel Metz, France [email protected] Arts et Métiers Institute of Technology, LISPEN 8, Bd Louis XIV Lille – France [email protected] A. SIADAT T-H. BENCHEKROUN Arts et Métiers Institute of Technology, LCFC 4, Rue Augustin Fresnel Metz, France [email protected] Crtd - CNAM, équipe ergonomie 41, Rue Gay-Lussac Paris – France [email protected]
RESUME : La robotique industrielle a connu des évolutions remarquables. Grâce au développement technologique et à l'évolution des dispositifs de sécurité, une nouvelle génération de robots fonctionnant sans barrières matérielles est apparue. Cette nouvelle génération de robots, dits collaboratifs, ouvre des perspectives pour des systèmes de production où humains et robots 'collaborent' pour gérer la fluctuation de la demande et les nombreuses formes de variabilités rencontrées sur un poste de travail. Ces nouvelles perspectives donnent lieu à des discussions et débats englobant la sécurité des futurs utilisateurs la rentabilité de ces investissements et leurs impacts sur la productivité, la qualité, les conditions de travail des opérateurs humains et leurs activités réelles. Elles ont renforcé le besoin d'une conception qui ne se focalise pas seulement sur l'élément technologique, mais aussi sur son utilisation potentielle en prenant en compte le travail réel et les futurs utilisateurs dès les premières phases de conception. Pour contribuer à ce débat, nous proposons dans cette communication un cadre méthodologique de conduite des projets cobotiques en prenant en compte les différents enjeux (de sécurité, de faisabilité, de rentabilité, etc.) et en s'inspirant des principales disciplines intégrant le travail réel et les futurs utilisateurs dès les premières étapes du processus de conception. MOTS-CLES
:
Ergonomie de
l'activité,
Inter
action Humains-
Machine
s,
Fa
cteurs Humains
, Management de projet, Robotique collaborative,
conception centrée utilisateur. 1 INTRODUCTION
La robotique a connu des évolutions diverses et rapides. En moins d'un demi-siècle, ce domaine a traversé différents niveaux d'évolution (Hägele et al., 2016 ; Vicentini, 2020), transformant ainsi le travail, et impactant de plus en plus la place de l'opérateur humain dans les systèmes de production. Passant d'une époque où l'intégration d'un robot signifiait une automatisation complète ; désormais, une robotisation n'implique pas forcément une suppression de l'activité humaine, car une nouvelle typologie de robots dits 'collaboratifs' est apparue. Grace à leurs mesures de sécurité intrinsèque (capteurs de couple par exemple), ces robots peuvent partager le même espace de travail, ainsi qu'un ensemble de tâches avec les opérateurs (Safeea et al., 2019 ; Sallez et al., 2020). Ces nouvelles générations de robots s'ajoutent aux solutions robotiques conventionnelles pour constituer une large famille de solutions robotiques qui peuvent être classées en 3 sous-familles de solutions robotiques (Bounouar et al., 2019) : - Les solutions robotiques qui reprennent les éléments conventionnels de la robotique industrielles, où le robot réalise les tâches en autonomie, sans aucune intervention humaine. Avec la possibilité de remplacement des éléments de sécurité matérielles (barrière, grille de protection, etc.) au profit de dispositifs immatériels (barrière optique, scanner laser, etc.) ; - Les solutions cobotiques qui nécessitent la présence humaine pour l'accomplissement des tâches. Dans ce cadre, les cobots, les exosque- MOSIM'20 - 12 au 14 novembre 2020 - Agadir - Maroc - lettes ou encore les robots manipulateurs téléopérés sont manipulés par les utilisateurs. Ces solutions cobotiques sont employées pour aider l'opérateur à accomplir sa tâche en guidant ses mouvements, en démultipliant l'effort exercé, ou en compensant le poids d'un objet ou d'un outil ; Les robots manipulateurs collaboratifs qui peuvent partager le même espace de travail et des tâches avec les opérateurs humains. Parmi les applications typiques de cette catégorie, on retrouve par exemple : le déplacement des produits fabriqués, la préparation d'outils (de montage, par exemple), etc. Ces nouveaux dispositifs technologiques sont de plus en plus présentés comme une clé de modernisation et de compétitivité des entreprises, en combinant le savoirfaire et le pouvoir décisionnel de l'être humain avec la force, l'endurance et la précision du robot. Cette combinaison est présentée comme une solution potentielle pour répondre aux besoins de flexibilité et d'agilité liées à la variabilité de production et à la mondialisation de la concurrence en offrant des nouvelles possibilités d'assistance pour des tâches parfois difficilement automatisables, tout en contribuant également à l'amélioration des conditions de travail. Si le déploiement de ces technologies reste encore limité et ne remplit pas totalement ces promesses, leur futur semble très prometteur. Ces nouveaux dispositifs technologiques donnent lieu à un débat autour d'un ensemble de questions englobant la sécurité des futurs utilisateurs (INRS, 2018), la rentabilité de ces investissements et leurs impacts sur la productivité (Bounouar et al., 2020 ; Cherubini et al., 2016), la qualité et les conditions de travail des opérateurs humains (Haeflinger, 2017). De ce fait, ils ont renforcé le besoin d'une conception qui ne se focalise pas seulement sur l'élément technologique, mais aussi sur son utilisation potentielle en prenant en compte le travail réel, ces particularités et ces sources de variabilités pour concevoir des systèmes Humains-Robots favorisant un travail en sécurité, en qualité et élargissant les marges de manoeuvres des opérateurs humains afin de pouvoir gérer les variabilités et les difficultés rencontrées en situation de travail. Pour enrichir ce débat, nous proposons dans cette communication un cadre méthodologique de conduite des projets cobotiques en prenant en compte les différents enjeux de ce type de projets (sécurité, faisabilité, rentabilité, etc.) et en s'inspirant des principales disciplines intégrant travail réel et les futurs utilisateurs dès les premières étapes du processus de conception. Ce cadre méthodologique vise à orienter vers une conception des systèmes humains-robots alliant sécurité, rentabilité, et amélioration des conditions de travail. Après avoir présenté ce contexte technologique et les questions induites, nous présenterons brièvement dans la partie suivante des exemples d'approches de conception centrées sur l'Humain. Nous discuterons ensuite les étapes et les particularités de chacune de ces approches et nous présenterons par la suite notre proposition de cadre méthodologique de conception des systèmes cobotiques.
2 LES APPROCHES DE CONCEPTION CENTRÉES SUR L'HUMAIN 2.1 La conception centrée utilisateur
C'est dans (Norman et Draper, 1986) que le terme «usercentered design » fut pour la première fois employé pour exprimer un type de conception dans lequel l'utilisateur de l'application, appelé « end-user », influence la conception elle-même. Ce terme a été utilisé par la suite dans plusieurs publications et manifestations scientifiques. La norme ISO 9241 (ISO 9241, 2010) fournit un cadre pour la conception centrée sur l'être humain. Complémentaire aux méthodologies de conception existantes, ce cadre offre une perspective centrée sur l'être humain qui peut être intégrée dans différents processus de conception et de développement d'une manière adaptée au contexte de chaque cas particulier. Une approche centrée sur l'être humain devrait suivre, entre autres, les principes énumérés ci-dessous : - La conception est fondée sur une compréhension explicite des utilisateurs, des tâches et des environnements : Les produits, systèmes et services devraient être conçus de manière à tenir compte des personnes qui les utiliseront et qui pourraient être touchées (directement ou indirectement) par leur utilisation. - Les utilisateurs sont impliqués tout au long de la conception et du développement : La participation des utilisateurs à la conception et au développement constitue une source précieuse de connaissances sur le contexte d'utilisation, les tâches et la façon dont les utilisateurs sont susceptibles de travailler avec futur produit. - La conception est pilotée et affinée par une évaluation centrée sur l'utilisateur : L'évaluation des conceptions avec les utilisateurs et leur amélioration en fonction de leurs commentaires constituent un moyen efficace pour réduire les risques qu'un système ne réponde pas aux besoins des utilisateurs ou de l'organisation (y compris les exigences cachées ou difficiles à spécifier explicitement). Une telle évaluation MOSIM'20 - 12 au 14 novembre 2020 - Agadir - Maroc permet de tester les solutions de conception préliminaire et contribuer à l'élaboration des solutions progressivement affinées. - Le processus est itératif : L'itération implique que les descriptions, les spécifications et les prototypes soient révisés et affinés lorsque de nouvelles informations émergent en cours de conception, au fur et à mesure d'affinement de la compréhension des utilisateurs et de leurs tâches. Ceci, afin d'éliminer progressivement l'incertitude pendant le développement des systèmes interactifs (humains-machines) et de réduire le risque que le système en cours de développement ne réponde pas aux besoins des utilisateurs. - L'équipe de conception comprend des compétences et des perspectives multidisciplinaires : L'équipe de conception centrée sur l'utilisateur doit être suffisamment diversifiée pour veiller sur la prise en compte des différents aspects liés à la conception et pour pouvoir prendre des décisions sur les compromis à faire. Un avantage supplémentaire d'une approche multidisciplinaire est que les membres de l'équipe prennent davantage conscience des contraintes et des réalités des autres disciplines ; par exemple, les experts techniques peuvent devenir plus sensibles aux problèmes des utilisateurs et les utilisateurs peuvent devenir plus conscients des contraintes techniques. Un exemple de mise en oeuvre de cette démarche a été partagé par (Loup-Escande et al., 2016) dans le cadre d'un projet visant la conception d'un environnement virtuel favorisant l'apprentissage de concepts scientifiques. Les contributions effectives de plusieurs profils d'utilisateurs (les enseignants, les élèves) à la compréhension et à la spécification des contextes d'usage, à l'identification des besoins des utilisateurs et aux évaluations de solutions intermédiaires et finales ont été décrites dans ce retour d'expérience.
2.2 La conception centrée sur l'activité
Comme son nom l'indique, la conception centrée sur l'activité souligne l'importance d'une analyse et d'une réhension des activités individuelles et collectives développées et mises en oeuvre par les opérateurs dans leur quotidien de travail durant le processus de conception. Ces étapes essentielles permettront d'alimenter le processus de conception et de l'orienter vers des choix en capacité d'élargir les marges de manoeuvre des futurs utilisateurs de telle manière à pouvoir mettre en oeuvre des moyens cohérents pour faire face à la variabilité du travail (technique, organisationnelle, etc.) dans l'objectif de préserver leur santé et d'atteindre les objectifs de productivité. Les approches de conception développées dans ce cadre s'appuient sur une analyse stratégique des enjeux du projet, la construction de diagnostics opérants visant la compréhension des activités réelles de travail, la conduite de simulations du travail permettant de se projeter dans l'activité future probable, la formalisation des résultats des simulations et l'accompagnement du projet jusqu'à son démarrage. L'ensemble des étapes de cette démarche se fonde sur une mobilisation et une participation active de l'ensemble des acteurs concernés par le projet, y compris les opérateurs (Benchekroun, 2016 ; Bounouar et al., 2019). Dans ce sens, l'une des finalités centrales d'une approche ergonomique est l'aboutissement à des accords de développement conjoint de la santé, de la performance, et des personnes en centrant le dialogue entre les différentes parties prenantes du projet sur le travail et les activités mobilisées en situation réelle ou simulée (Benchekroun, 2016).
2.3 Le Design Thinking
Le Design Thinking (DT) rendu populaire par la compagnie IDEO et l'Université de Stanford, est une approche basée sur l'empathie et utilisant des méthodes et des outils pour permettre à des équipes multidisciplinaires d'innover en mettant en correspondance attentes des utilisateurs, faisabilité technologique et viabilité économique. (Brown and Barry, 2011) L'objectif de cette démarche est de déplacer les référentiels traditionnels du design qui mettent l'accent sur la résultante du processus à savoir la plupart du temps l'objet créé. Elle s'articule sur des phases cycliques et itératives ayant comme source d'inspiration première la compréhension des individus pour qui on veut innover (utilisateurs finaux), et ce par l'art d'interagir avec eux d'une façon fine et efficace, l'art de l'observation, du recadrage et du prototyp rapide pour mieux approfondir la compréhension du terrain et enrichir les propositions de solutions. Dans cette démarche, plutôt que de développer tout le produit (service, espace, technologie, organisation, etc.) pendant des mois et de le présenter sous sa forme finale au client pour avis, il ne faut développer que les briques demandées et tester avec les utilisateurs l'usage au moyen de versions bêta et échanger avec eux en boucles courtes, en contexte réel, jusqu'à la finalisation et la mise en oeuvre. (Mathieu and Hillen, 2016) Il existe plusieurs variantes des processus en Design Thinking, le plus populaire est celui développé par la d.school de l'université de Stanford qui définit le proces- MOSIM'20 - 12 au 14 novembre 2020 - Agadir - Maroc sus en cinq étapes qui s'enchaînent logiquement mais qui ne doivent pas être prises comme un processus linéaire (The Bootcamp Bootleg, 2013) : La phase d'empathie pour comprendre les besoins des utilisateurs, la phase de définition qui vise à exprimer explicitement le problème à résoudre et l'angle d'attaque du problème, la phase d'idéation durant laquelle l'ensemble des participants du groupe de conception génèrent une diversité d'alternatives de conception pour répondre au à l'objectif défini, puis la phase du prototypage pour permettre aux idées de sortir au monde réel et la phase de test pour recueillir les avis des utilisateurs, d'améliorer les solutions, d'affiner et de continuer à apprendre davantage sur les utilisateurs pour gagner encore une fois en empathie afin d'enrichir les prochaines itérations. D'autres exemples intéressants d'approches de conception centrées sur l'humain existent (Sun H. et al., 2013 ; Sun X. et al., 2018).
3 LES ENJEUX DE LA CONCEPTION DES SYSTÈMES COBOTIQUES
La conception d'un système collaboratif humains-robots est une tâche complexe. Ceci est dû à un ensemble d'enjeux complémentaires mis en jeu durant ce type de projets de conception. Tout d'abord, l'enjeu de sécurité a une place essentielle durant le processus de conception d'un système interactif incluant des robots collaboratifs. En fait, contrairement aux robots industriels isolés par des grilles et barrières physiques, le partage physique d'un même espace travail entre les robots collaboratifs et les opérateurs humains rend la notion de risque prédominante. Malgré l'implantation de différentes mesures de protection intrinsèques (fonctions de sécurité intégrées, capteurs de couple, etc.) et respect des exigences de sécurité normatives (ISO 10218-1, 2011) par les fabricants de cobots, les risques de ces nouveaux moyens technologiques sont présents pour les utilisateurs. Dans ce sens, Il est important de distinguer le robot, qui est considéré au sens de la directive machines1 2006/42/CE comme une quasi-machine qui ne peut assurer à elle seule une application définie, et le système cobot comprenant le cobot, son effecteur (une pince, une visseuse, etc.), et l'ensemble des éléments de péri-robotique et de l'environnement de travail. 1 Les Directives machines rapprochent les législations des États membres de l'union européenne relatives aux machines. Elles visent à assurer la sécurité des personnes sur le lieu de travail et à réduire les risques D'autre part, l'introduction d'une nouvelle technologie dans un système industriel constitue un changement majeur au niveau de l'activité des opérateurs humains et de l'organisation. En ce sens, introduire une technologie, c'est aussi agir sur un système socio-organisationnel (Bobillier-Chaumon, 2016). Ceci peut avoir des impacts sur le savoir-faire développé par les opérateurs tout au long de leurs carrières pour effectuer un travail de qualité et gérer les variabilités rencontrées tout en préservant leur santé. Puis, il ne faut pas oublier que l'introduction d'une cellule de robotique collaborative, au même titre que tout autre moyen de production, est un investissement important qui est souvent conditionné de façon prédominante par des critères économiques. Il est naturel que les dimensions liées aux coûts engendrés (pour l'achat, la mise en fonction et l'entretien de la cellule robotique), à l'impact sur l'efficacité des postes de travail concernés, et au retour sur investissement soient discutées et prises en compte dans les processus de prise de décision et de conception. Le challenge durant la conduite de projets cobotiques consiste à trouver, pour chaque cas de poste de travail industriel à cobotiser, le compromis entre les différents enjeux essentiels liés à l'introduction de cette nouvelle technologie. En se basant sur la richesse des disciplines de conception centrées sur l'humain présentées précédemment et sur la connaissance de la réglementation en vigueur, nous proposons dans la partie suivante un cadre méthodologique en construction, visant à aider les concepteurs des systèmes humains-robots de prendre en compte les différents enjeux présentés dans partie, dans un objectif d'aboutir à un système humains-robots alliant sécurité, acceptabilité et rentabilité.
4 PRÉSENTATION ET MISE EN PERSPECTIVE DE LA PROPOSITION DU CADRE MÉTHODOLOGIQE DE CONCEPTION DES SYSTÈMES HUMAINSROBOTS
Avant de commencer les étapes de conception, pour veiller à la bonne prise en compte de l'aspect multi-enjeux précité, l'équipe de projet devrait être pluridisciplinaire. C'est d'ailleurs une des bases de la conceptions centréeutilisateurs (section 2.1). Une équipe de projet pluridisciplinaire devrait inclure les opérateurs concernés par le projet, des représentants de la direction (pour la discussion de l'investissement), des managers (de production, de maintenance, de qualité, de la sécurité), un ergonome et un intégrateur de robot. Au début du projet, l'équipe pluridisciplinaire serait amenée à analyser la situation actuelle de l'organisation, du poste de travail et des tâches à cobotiser. Plus préci- MOSIM'20 - 12 au 14 novembre 2020 - Agadir - Maroc sément, il s'agira, d'une part d'analyser les enjeux du projet en définissant les objectifs, en identifiant les postes à cobotiser, les personnes impactées, leurs attentes et les contraintes économiques et organisationnelles liées au projet (budget, importance du poste dans le processus de production, etc.), et d'une autre part, d'analyser l'activité des opérateurs à travers des observations en situation réelle, des entretiens de compréhension, et une analyse des données et documents liés aux postes de travail concernés (descriptifs des postes, objectifs de performance, suivi de productivité et de qualité, données de santé et de sécurité, etc.). En se basant sur les résultats de la phase d'analyse de l'existant, les étapes de conception devront être conduites de manière participative et itérative (principes de la conception centrée utilisateurs : section 2.1). En commençant par une étape importante d'idéation de scénarios de cobotisation (comme au Design Thinking : section 2.3). Cette étape essentielle va contribuer à favoriser l'approche participative en donnant la parole à tous les membres de l'équipe de conception, y compris les opérateurs humains, pour proposer des pistes de solutions qui doivent être discutées, évaluées et hiérarchisées à travers des simulations organisationnelles (simulations rapides en maquettes 2D ou 3D, par exemple). Ensuite, les pistes de solutions les mieux classés doivent être étudiés dans un objectif de choix des solutions technologiques adaptées, afin également de déterminer leurs faisabilités et d'estimer leurs enveloppes budgétaires Si les principes de solutions et leurs coûts potentiels sont acceptés par l'organisation et les opérateurs concernés, une étape de simulation fonctionnelle (tirant bénéfice des nouvelles technologies de visite virtuelle et d'analyse ergonomique de poste) permettrait l'évaluation du fonctionnement spatial et temporel et de son impact potentiel sur la performance du système. Après l'étude de faisabilité et l'évaluation de la rentabilité économique de l'investissement, une étape d'analyse des risques et d'évaluation de l'utilisabilité et de l'acceptabilité de la solution par les opérateurs est nécessaire pour déterminer si la solution est potentiellement convenable, et mérite d'être prototypée, ou s'il y a une nécessité de faire des itérations pour améliorer des aspects de la solution. Les étapes présentées ci-dessous sont schématisées sous forme d'un cadre méthodologique de conduite des projets cobotiques (figure 1). Ce cadre méthodologique vise à orienter vers des solutions systèmes humains-robots alliant sécurité, acceptabilité et productivité.
5 CONCLUSION
La cobotique présente de nombreuses perspectives pour le secteur industriel, englobant l'amélioration de l'agilité des systèmes de production et l'amélioration des conditions de travail des opérateurs humains. Ces nouveaux moyens technologiques engendrent des points de vigilance liés à la bonne prise en compte des enjeux multidisciplinaires de la robotique collaborative (Sécurité, rentabilité et conditions de travail). Dans cet article, différentes approches de conception centrées sur les utilisateurs finaux ont été présentées. Ensuite, les enjeux multidisciplinaires liés à la robotique collaborative ont été discutés. Puis, un cadre méthodologique de conception des systèmes humainsrobots a été élaboré. Ce cadre méthodologique, comprenant les étapes de conception avec leurs livrables, leurs outils et données d'entrées nécessaires, met en avant l'importance de la structuration participative de l'équipe de conception, des étapes préliminaires de la compréhension et d'analyse de l'activité en cours et des étapes itératives de conception et d'évaluation pour parvenir à une conception combinant performance productive, santé et sécurité. Pour un premier temps, ce cadre méthodologique a été mis en pratique –aux conditions de laboratoire- lors d'un processus de conception d'une cellule robotique collaborative visant l'amélioration d'un poste de travail de recyclage des boites plastiques contenant un produit de nettoyage (Bounouar et al., 2020). Au cours de cette expérience, l'activité manuelle a été analysée par le biais d'observations et d'entretiens avec les utilisateurs. Des scénarios d'amélioration ont été proposés, discutés et priorisés. Ensuite, une étude de faisabilité a été réalisée et a conduit à la réalisation des prototypes techniques des solutions retenues. Ces prototypes ont permis d'évaluer les solutions proposées et de recueillir les réactions des utilisateurs volontaires. Actuellement, ce cadre méthodologique est en train d'être mis en oeuvre dans un contexte plus formel ; un projet d'étude des possibilités d'assistance des opérateurs humains sur un poste de travail de finition d'une PME industrielle française. Cette entreprise produit des pièces mécaniques fragiles et sensibles pour le secteur aéronautique. Cette application industrielle permettra d'enrichir et d'affiner ce cadre méthodologique. Ce travail a été soutenu par l'Agence Nationale de la Recherche (ANR) dans le cadre du projet de recherche HECTTOR : L'Humain Engagé par la Cobotisation dans les Transformations du Travail et des ORganisations dans les usines du futur. (ANR-17-CE10-0011)..
| 35,457
|
58/halshs.archives-ouvertes.fr-halshs-00522439-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 4,627
| 6,785
|
L'IMPACT DES FACTEURS ORGANISATIONNELS ET STRATEGIQUES SUR L'APPROPRIATION DES OUTILS COMPTABLES ET FINANCIERS
Sylvie Chalayer Rouchon, Muriel Perez, Christine Teyssier
L'IMPACT DES FACTEURS ORGANISATIONNELS ET STRATEGIQUES SUR L'APPROPRIATION DES OUTILS COMPTABLES ET FINANCIERS INFLUENCE OF ORGANIZATIONAL AND STRATEGIC FACTORS ON FINANCIAL AND ACCOUNTING TOOLS APPROPRIATION'S
Résumé : Les outils de gestion comptables et financiers sont de plus en plus étudiés comme le résultat de la confrontation d'acteurs, d'interactions, de dynamiques d'appropriation diverses d'acteurs individuels ou collectifs. Nous montrons dans cet article qu'un certain nombre de facteurs organisationnels et stratégiques influencent les processus de construction et d'utilisation des outils comptables et financiers. Les acteurs comptables et financiers s'approprient ces outils dans une perspective socio-politique, soit parce qu'ils se contentent d'appliquer les règles et les normes imposées par leur profession, soit parce qu'ils veulent faire jouer à ces outils un rôle de communication, de légitimation, d'adhésion en interne dans l'entreprise ou en externe vers les apporteurs de capitaux notamment. Mots clés : Appropriation, Outils comptables et financiers. Abstract : Financial and accounting tools are more and more widely studied as a result of cooperation between players, interactions and various appropriation dynamics from individual or collective players. In this article, we show that certain organizational and strategic factors influence the processes of construction and use of these accounting and financial tools. Accounting and financial players appropriate these tolls in a socio-political perspective, either because they simply apply the rules and standards imposed by their profession, or because they seek to make these tools play a role in communication, in order to legitimate or convince internally within their organization or externally with a view to attracting funds. Key words : Appropriation, Financial and accounting tools.
Sylvie Chalayer Rouchon
Sylvie Chalayer Rouchon est maître de conférences à l'ISEAG, Université de Saint-Etienne et chercheur au sein de Préactis. Elle est responsable des formations comptables dans le département Comptabilité Contrôle Audit Finance de l'ISEAG. Ses travaux portent principalement sur la comptabilité, la gestion des résultats, la lissage des résultats, la gestion financière et les processus d'appropriation des outils de gestion comptables et financiers dans les entreprises. ISEAG 2, rue Tréfilerie 42023 Saint-Etienne Cedex 2 04 77 42
13 84
[email protected] Muri
el
Perez Muriel Perez est maître de conférences à l'IUT de Roanne, université Jean Monnet et chercheur au sein de Préactis. Elle est responsable du master 1 IUP de Roanne. Ses recherches portent principalement sur l'étude des spécificités financières des PME, l'apport des outils d'informatique avancée à la finance d'entreprise et les processus d'appropriation des outils de gestion comptables et financiers dans les entreprises. IUT de Roanne 20, avenue de Paris 42300 Roanne 04 77 44 89 00 [email protected]
Christine Teyssier Christine Te
ssier maître de conférences à l'ISEAG, Université de Saint-Etienne et chercheur au sein de Préactis. Elle est directrice du département Comptabilité Contrôle Audit Finance de l'ISEAG. Ses travaux portent principalement sur les décisions d'investissement, de financement et de distribution dans l'entreprise, sur les relations entre les décisions financières et la politique de dividendes et sur les processus d'appropriation des outils de gestion comptables et financiers dans les entreprises.
ISEAG 2, rue Tréfilerie 42023 Saint-Etienne Cedex 2 04 77 42 13 03 [email protected]
1 La gestion d'une entreprise, et en particulier sa gestion comptable et financière, repose sur l'utilisation par les managers d'un grand nombre d'outils. Les recherches sur les outils de gestion considérés en tant qu'objet d'étude se sont fortement développées avec les travaux de Berry (1983), Hatchuel et Weil (1992), David (1998), Moisdon (1997) La notion d'outil de gestion est abordée dans cette littérature sous des dénominations différentes (instruments de gestion, machines de gestion, dispositifs de gestion, appareils gestionnaires, innovations managériales), démontrant une grande diversité terminologique aussi bien dans les discours des théoriciens que des praticiens. Quelle que soit la dénomination retenue, les notions de formalisation et d'action sont omniprésentes dans la notion d'outil de gestion. Ainsi, Moisdon (1997) le définit comme « toute formalisation de l'activité organisée », David (1998) comme « tout dispositif formalisé permettant l'action organisée ». Ces définitions traduisent la rationalité de l'outil : il apporte une logique, une rigueur, une simplification qui permet d'objectiver la nature économique de l'activité et de prendre des décisions rationnelles en temps limité, en échappant à la subjectivité du jugement humain. La vision « représentationnelle » et « computationnelle » de l'outil (Lorino 2002) montre que l'outil est là pour s'assurer de la qualité des choix de gestion, pour les valider, pour les légitimer. L'outil laisse transparaître une certaine rationalité qualifiée d'objective même si parfois il parait imparfait ou biaisé. Mais derrière l'aspect purement instrumental de l'outil se cache l'aspect contextuel de l'outil : l'outil de gestion subit des transformations successives au fur et à mesure de sa diffusion dans l'organisation par le biais d'un processus d'appropriation des acteurs. La définition d'Hatchuel et Weil (1992) traduit bien ce second aspect de l'outil, puisque les auteurs montrent en effet qu'il est le fruit de trois éléments en interaction : un substrat technique l'abstraction sur laquelle repose l'outil et qui lui permet de fonctionner), une philosophie gestionnaire (qui contient l'esprit de la conception et des usages de l'outil) et une vision simplifiée des relations organisationnelles (rôles des concepteurs, des utilisateurs, des conseils, des contrôleurs). Dans le domaine comptable et financier, les outils produisent une représentation symbolique de l'organisation dans un langage totalement universel : le langage économique. Ils servent à collecter de l'information comptable et financière, à traiter et communiquer des données, à planifier des opérations, à contrôler des activités, à comparer et à évaluer. Cette représentation économique des activités respecte les normes et les règles, au sens non seulement des réglementations définies et imposées par la loi, mais également des références professionnelles, des comportements habituels communément admis Certains outils sont donc construits sur la base de normes strictes et relativement incontournables : ce sont les outils purement comptables, réglementaires qui sont imposés notamment par la réglementation comptable et fiscale (le bilan, le compte de résultat, la liasse fiscale). D'autres sont basés sur des règles relativement formalisées obéissant à une logique de codification et d'uniformisation. A titre d'exemple, les plans de financement, les tableaux de flux de trésorerie, les budgets prévisionnels, les tableaux de bord de gestion, les documents de reporting, les tableaux d'évaluation et de suivi des projets d'investissement constituent également des outils comptables et financiers. La recherche en gestion et plus récemment en comptabilité et finance (Charreaux 2002, Lorino 2002, Chabrak 2000, Justin 2004, Bourguignon et Jenkins 2004, Cossette 2004), s'appuyant notamment sur des travaux en sociologie et en psychologie, a largement dépassé la vision très rationnelle et objective de l'outil. Ces recherches permettent d'intégrer des aspects sociologiques et cognitifs dans la façon de s'approprier les outils comptables et 2 financiers. Les outils comptables et financiers sont désormais considérés comme le résultat de la confrontation d'acteurs, d'enjeux stratégiques animant les organisations et les acteurs euxmêmes. Ils trouvent leur origine dans les jeux sociaux qui animent leur construction même si la rationalité est toujours mise en avant pour justifier leur mise en oeuvre concrète : c'est une autre rationalité qui apparaît, fruit d'interactions, d'appropriations, de dynamiques diverses d'acteurs individuels ou collectifs. Notre recherche s'inscrit donc dans une logique de compréhension des phénomènes d'appropriation par les acteurs manipulant les outils comptables et financiers. Le terme « appropriation » est entendu ici comme la manière pour un acteur de rendre un outil propre à une destination ou à un usage. L'appropriation contient par conséquent les notions d'adaptation et de mise en adéquation de l'outil à une utilisation déterminée, et ceci par des individus ou des groupes d'individus, qui fonctionnent dans un contexte organisationnel complexe, au sein duquel les interrelations entre acteurs et les comportements individuels d'acteurs entrent en ligne de compte de manière significative. Nous partons également dans notre recherche du constat que les théories positives de la comptabilité et de la finance ne permettent pas de prendre en compte les jeux d'acteurs et les comportements individuels des acteurs dans la construction et l'utilisation des outils. Elles ont préconisé l'emploi d'outils comptables et financiers standardisés, reconnus et acceptés par tous les acteurs : l'outil permet d'apporter une solution rationnelle et objective à un problème de gestion. Ces approches se sont principalement basées sur une abstraction des dynamiques d'acteurs et sur le caractère objectif de la construction et de l'utilisation des outils. Nous proposons dans un premier temps de montrer que les outils comptables et financiers sont appropriés de façon quasi automatique et inconsciente par les acteurs qui les construisent et les utilisent : les normes applicables aux outils comptables et financiers sont totalement intégrées par les acteurs et par la société et sont devenues incontournables. Nous montrons, dans un second temps, que, dans certains cas, les outils sont construits et utilisés car ils permettent de légitimer des décisions ou de faire adhérer les différentes parties prenantes d'une organisation à un projet de développement stratégique : les outils comptables et financiers sont alors utilisés par les acteurs de façon à servir les objectifs de l'entreprise. Dans un troisième temps, nous montrons que les outils comptables et financiers sont des outils de communication externe pour convaincre par exemple les apporteurs de capitaux d'apporter les financements requis par un projet d'investissement donné. Les outils comptables et financiers deviennent alors un outil de pouvoir, d'adhésion, de légitimation et de communication soit en interne, soit en externe.
1. LA RECONNAISSANCE SOCIALE DE LA NORME ET DES REGLES PAR LES ACTEURS DANS LES ORGANISATIONS
Nous partons du principe que le simple fait pour acteur de respecter les normes et les règles que lui impose sa profession, en terme de construction et de lecture des outils qu'il utilise, est un premier niveau d'appropriation. Un certain nombre d'auteurs en comptabilité et en finance ont en effet montré l'importance sociale des règles et normes sous-jacentes aux outils comptables et financiers. Capron (1993) a assigné plusieurs fonctions sociales à la comptabilité et donc aux outils qu'elle propose. La première fonction est d'apporter la confiance en rassurant les acteurs de la vie économique : la simple transaction entre deux personnes exige déjà une confiance mutuelle, et a fortiori lorsque les échanges prennent des formes complexes. Il faut, par 3 exemple, pouvoir présenter des documents qui rassurent les banquiers et les différents créanciers sur la santé financière et la solvabilité d'une entreprise, ainsi que sur ses performances d'exploitation ; au delà, et bien que ce ne soit pas son objet, la comptabilité visera à accréditer l'idée d'une « bonne gestion » de la part des dirigeants. La deuxième fonction est de jouer un rôle de médiation dans les rapports sociaux et de favoriser les négociations entre acteurs : instrument de référence pour la détermination d'un coût et donc d'un prix, la comptabilité est, en fait, la source de toute négociation commerciale. Moyen de communication, langage commun accepté par tous, elle peut servir, implicitement, dans l'arbitrage des conflits. Le recours à des outils comptables et financiers normalisés favorise le dialogue sociétal dans la mesure où les acteurs ont confiance dans les normes sous-jacentes. L'appropriation est ici relativement limitée car l'acteur a peu de marge de manoeuvre. Il doit utiliser les outils car ils sont incontournables socialement, la norme a pratiquement force de loi. Dans les cas extrêmes pour les PME, les documents comptables tels que le bilan et le compte de résultat sont confiés à l'expert comptable sans qu'il y ait d'autre objectif que l'obligation fiscale. Il y a donc un niveau d'appropriation très faible, puisqu'il s'agit simplement de respecter les normes. Dans le même ordre d'idée, le recours à des outils financiers très formalisés, parfois sophis qués, mais socialement acceptés et reconnus par tous les acteurs, serait une garantie à des prises de décisions optimales, notamment lors de l'étude au sein de l'organisation d'un projet de développement, de désengagement, de recherche de partenaires financiers Des techniques normatives et instrumentales permettant de standardiser les méthodes d'évaluation, de calcul, de présentation sont alors mises en oeuvre afin d'aboutir à des décisions jugées comme optimales, dont la « traçabilité » peut être démontrée. Dans le domaine des décisions de choix d'investissement dans l'entreprise par exemple, l'usage des méthodes normatives d'évaluation prévisionnelle des projets et de calcul des critères est devenu extrêmement fréquent au regard des enquêtes qui ont été conduites (Graham et Harvey 2001, Carr et Tomkins 1998, Cornick et Dardenne 2000, Van Cauwenbergh et al 1996, De Bodt et Bouquin 2001). Il en est de même pour la construction et l'utilisation de tableaux de bord stratégiques, tel le Balanced Scorecard, lorsqu'il s'agit de justifier dans l'organisation ou à l'extérieur de celle-ci une décision de développement stratégique. C'est également le cas lors de la construction de tableaux de suivi d'activité, de reporting On tend vers une certaine standardisation et normalisation des pratiques qui échappe aux barrages culturels nationaux. Ce niveau d'appropriation laisse un peu plus de marge de manoeuvre à l'acteur dans le sens où il dépend d'un contexte plus précis, par exemple le mode de management, le degré de décentralisation des décisions, la taille de l'entreprise et sa structure organisationnelle, le secteur d'activité, les stratégies individuelles ou collectives des principaux décideurs Dans sa théorie instrumentale des outils de gestion, Lorino (2002) relie l'objet (l'artefact) au sujet qui le conçoit (le schème interprétatif de l'acteur) et insiste sur la relation de type « symbolique » que l'outil entretient avec les processus qu'il instrumente. L'outil est relié à l'action via un code établi conventionnellement dans le cadre de l'organisation sociale de l'action. Il fait partie d'un champ de significations et de règles codifiées socialement, mais également d'habitudes, de routines d'action. C'est le cas de la grande majorité des indicateurs de gestion, de la comptabilité, tout comme de la signalisation routière En tant qu'outil symboliques, les outils de gestion sont régis par des règles de construction et d'utilisation (par exemple la méthode de calcul d'un coût de revient, de construction d'un budget ou d'un tableau de bord financier, de calcul d'un indicateur de choix d'investissement), mais également par les règles formelles qui prennent naissance dans le langage symbolique auxquels ils ont trait, par exemple le langage comptable. L'outil, en tant que symbole, résulte 4 donc de deux niveaux d'interprétation : le niveau local interne à l'organisation et à ses acteurs et le niveau global supérieur, qui pourrait être dans notre cas de figure le système comptable général et tous les acteurs au sens large qui le façonnent. Dans l'organisation, les acteurs auraient tendance à « routiniser » parfois inconsciemment les conventions imposées au niveau supérieur, à savoir les organismes de normalisation, mais également les associations professionnelles. Il s'agit de s'approprier les normes de construction, de présentation, d'utilisation préconisées par les organisations professionnelles. Le phénomène de reconnaissance sociale de la norme par les acteurs de la sphère économique peut être relié aux approches sociologiques. Les travaux en sociologie néoinstitutionnaliste de DiMaggio et Powell (1991) abordent la notion d'isomorphisme institutionnel pour expliquer la propension des organisations qui subissent les mêmes conditions environnementales à se ressembler. Pour survivre, elles adoptent les pratiques qui apparaissent les mieux acceptées socialement et pas forcément celles qui sont économiquement les plus viables. Les organisations sont donc à la recherche d'une certaine légitimité à travers trois types d'isomorphisme qui les font évoluer. L'isomorphisme coercitif résulte des pressions formelles et informelles exercées par les organisations et des attentes culturelles d'une société à travers notamment les règles politiques et législatives. L'isomorphisme normatif est lié à l'importance accordée au phénomène de professionnalisation, c'est-à-dire l'ensemble des efforts d'une profession pour définir leurs conditions et méthodes de travail, établir une base légitime à leurs activités et donc une autonomie. La professionnalisation, de même que le système éducatif, entretient de l'uniformité, de la reproduction, et de la socialisation, à travers des pratiques communes, notamment de langage (par exemple le langage comptable et financier) : il s'agit de démontrer que les décisions prises sont conformes aux normes produites par la structure sociale. Dans cet esprit, les décideurs sont amen à donner l'illusion qu'ils se comportent de manière rationnelle en adoptant des normes de comportement et les techniques perçues comme les plus adéquates pour atteindre les objectifs fixés par le marché. Si les acteurs ne se conforment pas à ces schémas normatifs, ils créent les conditions d'un échec (retrait des différents partenaires, risque de faillite) accréditant l'idée que les modèles normatifs non utilisés étaient les bons. L'appartenance de nombreux managers, notamment comptables et financiers, à des associations professionnelles, n'est pas sans effet sur la propagation de pratiques jugées légitimes dans la profession. L'isomorphisme mimétique traduit enfin l'enclin des organisations à imiter ce que font les autres organisations qui appartiennent au même secteur d'activité, et notamment parce que les acteurs en situation d'incertitude sont souvent dans l'incapacité de trouver des solutions nouvelles. 5 Les travaux des théoriciens des conventions insistent sur le fait que la comptabilité ne doit pas être considérée comme une simple technique, mais comme un ensemble de mécanismes qui résultent de choix humains (Amblard 2004). Dès lors, il y a lieu de s'intéresser aux influences culturelles, aux pressions sociales et aux enjeux politiques s'exerçant sur elle. Le mimétisme devient un puissant moyen de coordination routinière et un mécanisme de normalisation des comportements. Il favorise également les phénomènes de « modes » et conduit à l'attrait des managers pour les nouveaux outils et méthodes de gestion. Ceux-ci seraient guidés dans leurs pratiques et procédures par les conventions, les habitudes, les obligations sociales dans un souci de prestige, de stabilité, de légitimité, de soutien social, de reconnaissance par la profession Certaines croyances et pratiques seraient tellement intériorisées par les organisations qu'elles en deviendraient invisibles aux acteurs qu'elles influencent. L'existence d'un corps de règles, de normes, de méthodes et de techniques conduisant la construction des outils comptables et financiers et portant les valeurs de rationalité et de reconnaissance sociale, renforce l'effet d'adhésion à un certain nombre de valeurs communes. Les normes sont parfaitement appropriées par les acteurs et par la société de telle sorte qu'elles sont incontournables. La présence de règles dont l'application peut être obligatoire (comptabilité) laisse penser qu'il n'y a aucune latitude, aucun choix possible dans l'appropriation des outils comptables et financiers. Or, la littérature en comptabilité a montré que le respect des règles n'est pas contradictoire avec les comportements de gestion des résultats. De même, les outils sont mis en oeuvre par des acteurs sont au service d'une organisation et de ses projets. Nous pourrons montrer qu'il n'y a pas une seule manière de s'approprier un outil comptable et financier mais que celle-ci varie selon le contexte étudié. Dès lors, nous pourrons mettre en évidence un certain nombre de facteurs de contingence. Ainsi, le degré d'appropriation des outils comptables et financiers dépendra des relations que l'entité entretient avec les organisations professionnelles (Ordre des Experts Comptables, Association des Directeurs Financiers et des Contrôleurs de Gestion, Syndicats professionnels). On peut s'attendre à ce que les acteurs soient d'autant plus incités à initier des outils dans le respect des normes que les liens avec les organisations professionnelles sont étroits. OUTILS COMPTABLES ET FINANCIERS COMME INSTRUMENT DE POUVOIR : UN MOYEN D'ADHESION DES ACTEURS INTERNES A L'ORGANISATION ET DE LEGITIMATION DE PROJETS DE DEVELOPPEMENT STRATEGIQUE? 2. LES
Si les outils comptables et financiers représentent autant de normes à respecter, car socialement admises et incontournables, comment se fait-il que dans certains cas les outils soient détournés, autrement dit qu'un acteur éprouve à un moment donné le besoin de ne plus se contenter d'appliquer très strictement des règles que sa profession lui aurait imposées? 6 Ainsi, dans une organisation, une décision d'investissement stratégique peut s'inscrire dans une logique qui va bien au-delà d'une simple prise de décision rationnelle et objective (Pézet 2000). L'acteur éprouve à un moment donné le besoin d'adapter les outils qui sont à sa disposition en fonction des objectifs qu'il recherche. Les outils de gestion utilisés présentent alors une certaine flexibilité instrumentale et interprétative, et sont mis en oeuvre dans une optique socio-politique. Les objectifs recherchés peuvent être divers, de même que les moyens de « jouer » avec les règles. Par exemple, un porteur de projet souhaitant présenter un taux de rentabilité élevé pour engager les décideurs à soutenir son projet peut choisir de surévaluer les flux prévisionnels potentiels générés par l'investissement. Il peut également, dans le même objectif, opter pour une sous-estimation du taux d'actualisation ou du montant initial de l'investissement (en omettant par exemple certaines charges indirectes ou annexes à l'investissement). Parfois, dans les cas les plus extrêmes, les outils sont clairement adaptés pour répondre de façon correcte à une décision d'investissement qui serait déjà prise. Il s' agit dans ce cas là de légitimer l'adoption d'un projet en faisant apparaître des informations quantitatives et/ou qualitatives qui vont dans le sens de la décision déjà approuvée. Ce type de comportement rappelle curieusement le concept comptable d'habillage des comptes, thème fréquemment abordé dans les recherches en comptabilité. Que ce soit dans un objectif de justification de la décision ou de légitimation d'un projet déjà accepté, le décideur a un objectif conscient intentionnel préalable. Il s'approprie les outils et/ou les règles dans une optique de rationalité optimisatrice. Nous faisons ici référence aux développements de Romelaer et Lambert (2001) qui explorent les différentes rationalités de l'investissement qui ont été observées dans la réalité. Ainsi, les acteurs sont emprunts de rationalités optimisatrices, qui pré-existent à la décision et sont consciemment appliquées dans le choix d'investissement. Le décideur part d'une intention, car il cherche à atteindre un objectif a priori, qui se trouve dans la mise en oeuvre d'un projet de développement stratégique qui a été défini dans l'organisation. Nous partons donc du principe que les outils comptables et financiers sont principalement utilisés par les décideurs pour convaincre les différentes parties prenantes de l'intérêt d'un projet de développement stratégique, en justifiant cet intérêt de façon « apparemment » objective. En réalité, le décideur, dans une démarche intentionnelle et consciente, va « aménager » les règles et les outils en fonction du projet qu'il souhaite voir réalisé. Dans ce cas, le décideur est dans une situation où il adhère intégralement aux projets de développement stratégique de son entreprise : il oriente les outils de façon à ce que ces derniers maximisent les chances d'adhésion au projet de la part de tous les acteurs. La démarche est totalement « avouable » parce que légitime : un projet peut être accepté dès lors qu'il sert le strict intérêt de l'entreprise. Il s'agit de convaincre les autres acteurs, de justifier l'opportunité du projet, voire de légitimer le projet dans un contexte où la décision est déjà prise. Dans ce cas de figure, les outils sont adaptés, orientés, tout en étant totalement bien appropriés par le décideur. Ce dernier connaît parfaitement les données du modèle qu'il convient de « manipuler » en fonction de l'objectif qu'il recherche. Mais cela suppose également que le décideur joue une stratégie intentionnelle de manipulation des outils qu'il a à sa disposition, et dont il a parfaitement intégré l'utilisation et l'utilité. Ainsi le dispositif de gestion mis en oeuvre est un moyen du pouvoir (Boussard et Maugeri 2003) : à travers le développement d'un outil, on cherche à influencer les individus. L'outil est donc une façon d'échapper aux contradictions, de rendre son action cohérente, de construire un environnement permettant de légitimer ses actions, voire de transformer un outil en fonction de ses intérêts. Boussard (2003) parle même de simulacre de rationalité, car l'auteur pense que les outils sont adoptés non pas parce qu'ils prétendent rendre l'organisation 7 transparente et maîtrisable, mais parce qu'ils font croire qu'elle l'est. Ils agissent tels des symboles de rationalité en permettant par exemple aux décideurs dans une organisation de faire adhérer les acteurs à un projet de développement stratégique et de légitimer des choix. 3. LES OUTILS COMPTABLES ET FINANCIERS COMME INSTRUMENT DE COMMUNICATION EXTERNE : UN MOYEN DE JUSTIFICATION D'UNE AUTORISATION DE FINANCEMENT
Dans le prolongement de l'outil au service de la stratégie, nous faisons l'hypothèse que les décideurs souhaitant mobiliser l'ensemble des parties s'approprient les outils comptables et financiers de telle sorte que les conclusions portées par ces outils soient cohérentes avec les objectifs stratégiques pré-définis dans l'entreprise. L'appropriation est d'autant plus importante que le dirigeant de l'organisation doit justifier à des tiers (actionnaires, banques, salariés) la cohérence de ses choix d'investissement et de financement. L'outil comptable et financier se transforme alors en outil de communication et sort de son rôle premier d'information et d'aide à la décision. Michaïlesco (2000) a mis en avant les quatre étapes guidant le processus de construction des états financiers : 8 - la première étape consiste à définir la stratégie de communication. Il s'agit de la définition des objectifs à donner aux états financiers. - la deuxième étape est relative à la production de l'information comptable et aux acteurs impliqués dans cette production. - la troisième étape a trait à la communication de l'information à l'extérieur de la société. - la quatrième étape est liée à l'expérience. La stratégie financière d'une entreprise évolue via un effet d'apprentissage : on peut comparer les résultats obtenus par rapport à ceux attendus. Ce processus de construction des états financiers peut être généralisé à la construction de l'ensemble des outils comptables et financiers utilisés par les organisations. L'étude de l'appropriation des outils comptables et financiers passe nécessairement alors par l'étude des objectifs assignés à outils. Nous avons vu précédemment que les objectifs peuvent être relatifs à la stratégie de développement définie en interne. Nous montrons désormais qu'ils peuvent être relatifs à une stratégie de communication orientée notamment vers les actionnaires et les établissements de crédit. Lavigne (1998 et 2000) montre que le principal objectif de communication des PME est orienté vers la banque. Cette démarche peut constituer un moyen de pression pour faire modifier le contenu de l'information donnée par ces outils. En présence d'asymétrie d'information, l'entreprise peut choisir d'établir ses comptes dans un objectif de demande de prêt, les indicateurs clés étudiés par la banque peuvent être présentés à son avantage. Elle se sert ainsi des outils comptables et financiers comme vecteurs de communication à destination d'utilisateurs externes. Conclusion L'objectif premier de cet article est de poser une grille de lecture sur la thématique de l'appropriation des outils comptables et financiers à travers une optique socio-politique (De Vaujany 2005). Les trois niveaux d'appropriation dégagés doivent faire l'objet d'une validation à travers des études de cas en contexte PME. Le premier degré d'appropriation met en avant un niveau minimal d'appropriation qui consiste simplement en l'acceptation et le respect des normes. Le deuxième degré suppose que les outils comptables et financiers sont au service de la décision dans le sens où ils sont utilisés pour la légitimer, la justifier. Enfin, le troisième degré, souligne que parfois les outils sont tournés vers des acteurs externes à l'entreprise dans une optique de communication. 9 Des études de terrain réalisées avec la méthode des études de cas ont démarrées et ont pour objectif de vérifier la validité des facteurs de contingence mis en évidence par la revue de la littérature. Ces études de cas longitudinales sont conduites en région Rhône-Alpes à travers des questionnaires et entretiens auprès de dirigeants d'entreprises, de responsables des services comptables (Directeur Administratif et Financier), d'experts-comptables, de banquiers. L'objectif est donc d'étudier les comportements de ces différents acteurs et leurs modes d'appropriation au sein d'une même entreprise et de mettre en avant les facteurs venant influencer ces niveaux d'appropriation. Les premiers entretiens engagés permettent de conforter les idées développées dans cet article. De plus, ils laissent penser que les facteurs de contingence doivent être complétés et doivent intégrer des aspects psycho-cognitifs (Chalayer Perez et Teyssier 2005, Lacombe Saboly 1994, Chapellier 1994). En effet, l'appropriation des outil comptables et financiers semble dépendre aussi du profil de l'acteur qui les initie ou les utilise (formation, âge, ancienneté dans sa fonction, caractère)..
| 35,651
|
57/tel.archives-ouvertes.fr-tel-01893523-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,030
| 16,352
|
L'image finale ne montre plus que le seul personnage de Frida qui est alors pleinement identifié à la poupée cassée. La métonymie qui sous-tend est donc poussée à son paroxysme. Quant au rêve (décisif) de Frida, il finit par être transposé sous une forme artistique et déploie ainsi toute sa force symbolique. Le rêve sert également de noeud de l'action au récit de Mary la penchée. Il s'expose d'ailleurs dès la situation initiale du récit. 390 391 392 393 Freud (S.), Sur le rêve, Paris : Gallimard, 1988, p. 71. Cette illustration entre en résonance avec le tableau « Blanc-seing » de Magritte (1965) qui joue sur la frontière entre le visible et le non visible. La similitude repose notamment sur les procédés plastiques, tels qu'ils sont décrits par Bruno Trentini : « Un cavalier évoluant parmi les arbres, donc comme barré verticalement par des troncs, se trouve étrangement masqué par un tronc situé apparemment derrière lui. Or, les réflexes perceptifs sont forgés par une habitude empirique selon laquelle si un élément semble masquer un autre, alors le masqué se situe derrière celui qui le masque. Ainsi, au premier regard, la profondeur interne à l'oeuvre est pervertie », in « L'erreur perceptive lors de la formation de l'interprétation », Les chantiers de la création [En ligne], 2 | 2009, consulté le 25 octobre 2017, disponible sur : http://lcc.revues.org/180* Dans ce tableau, le cavalier tantôt est caché par l'arbre et tantôt cache l'arbre. L'entrée dans le sommeil, tout comme le retour à vie diurne, passe par la médiation d'un cliché photographique de Frida. Il s'agit donc d'un objet intercesseur. Freud, L'interprétation des rêves, op.cit., p Pendant la nuit, il y avait eu un orage terrible. Et Mary avait fait un drôle de rêve : autour d'elle, le sol s'était mis à trembler, puis à craquer, et Mary était tombée à travers une crevasse. Elle tombait, tombait, tombait, et finissait par se poser sur le sol d'une petite planète bleue éclatante de lumière [5] Le ressort narratif et onirique est le même que dans Alice au pays des merveilles : la chute dans le sommeil symbolisée par la chute non plus dans le terrier d'un lapin mais dans une crevasse. L'univers du rêve est circonscrit dans un espace spécifique : la chambre (qui est celle tantôt de sa maison, tantôt d'une pension). Le rêve de Mary est saisi à travers son étrangeté comme l'atteste l'adjectif « drôle ». Il conduit non moins vers le merveilleux puisqu'il ouvre une porte vers le monde des possibles. Il est est figuré par la planète bleue qui connote l'espoir, en raison de sa lumière éclatante. Le rêve sert d'ailleurs à Mary de refuge à un monde qui lui est hostile. Et l'étrange planète de son rêve parait l'envoûter : « Pendant la nuit, Mary rêva de nouveau de la planète bleue. Cette fois elle avait l'impression de mieux la voir. Elle avait aperçu ceux qui l'habitaient, de drôles de loustics qui faisaient de grands signes. Mary se demandait bien ce qu'ils voulaient lui dire. » [13] La planète bleue semble réellement matérialisée, comme le suggère l'emploi des verbes de perception. De même, cette planète existe au travers de ses habitants, qui sont eux aussi incarnés. Par conséquent le rêve de Mary paraît paradoxalement tangible et entraîne ainsi la confusion entre le réel et non-réel. De fait, comme Gaston Bachelard le constate « [] l'être de l'enfance noue le réel et l'imaginaire, [] vit en toute imagination les images de la réalité. »394 C'est pourquoi l'histoire de Mary la penchée oscille entre vraisemblance et invraisemblance et pourrait ainsi se penser comme une aventure imaginaire. Le regard magique que Mary pose sur le monde conduit à son ré-enchantement. Le rêve déclenche une situation anormale puisqu'à son réveil Mary se retrouve penchée : son rêve et sa vie diurne sont déconcertants. S'instaure alors une « [] atmosphère particulière déréalisée et déréalisante »395. 97 contraignant. Nelly Chabrol-Gagne résume, elle, ainsi les « pensées latentes du rêve »398 de la jeune fille : Une enfant, une fille, expulsée, rejetée, condamnée en somme par un système familial et sociétal contraignant, s'en est donc allée comme les héros masculins de Jules Vernes, rejoindre un lieu pour vivre enfin, mais pas n'importe quel lieu. Elle y est accueillie, attendue pas ses nouve-aux-lles ami-e-s, penché-e-s, comme elle. 399 La trajectoire narrative et onirique de Mary se conclut sur son évasion effective : Mary n'hésita pas une seconde. C'était comme si elle reconnaissait le chemin. - C'est facile, pensa-telle, il suffit de suivre la pente. Elle s'engagea sur une drôle d'échelle et, prenant le petit singe dans ses bras, s'enfonça dans les profondeurs de la terre. [22] Le passage d'un monde connu à un autre, inconnu et mystérieux, est présenté comme un « jeu d'enfant » comme le suggèrent les expressions « C'est facile » et « Il suffit ». D'ailleurs, alors qu'elle parcourt des chemins labyrinthiques, elle se repère de façon presque instinctive en se fiant à la voie dictée par son rêve. Ce dernier se manifeste à elle avec cohérence et évidence : La route était pleine de pièges. Il y avait des fausses pistes, des chemins qui ne menaient nulle part, des sentiers qui bifurquaient abruptement. Mary n'hésitait jamais très longtemps. Quand elle se croyait perdue, il lui suffisait de fermer les yeux pour retrouver la bonne direction. Un peu comme l'aiguille d'une boussole, elle se sentait attirée de façon irrésistible. [25] L'apparente té du monde n'induit pas une impression d'étrangeté de l'être. Paradoxalement Mary ne s'égare pas dans ces espaces tortueux et liminaires qui lui apparaissent d'ailleurs étrangement familiers. Elle fait alors figure d'oniromancienne, à l'image d'Estelle ou de Frida. Son initiation passe par la confrontation non seulement à un hors-lieu mais aussi à un horstemps : « Comme il n'y avait ni jour ni nuit, Mary ne savait plus depuis combien de temps ils avançaient mais elle n'était pas fatiguée. » [27] La jeune fille - accompagnée de son singe - est également amenée à franchir des seuils initiatiques (alors matérialisés) : « Ils traversèrent des ruisseaux, escaladèrent des montagnes, puis arrivèrent dans une étrange forêt, parsemée de crevasses. 98 symboliquement reconstruit à son image, ainsi qu'à l'image de son rêve : « Quand elle aperçut enfin la planète bleue, Mary ne fut pas étonnée, c'était vraiment comme dans son rêve. » [27] Cette fameuse planète enfin dévoilée par l'illustration ainsi que ses habitants sont comme elle, penchés. Mary s'affranchit d'un monde par trop normé qu'elle reconfigure alors à sa mesure suivant le principe de la « vie à l'envers » qui « se situe en dehors des ornières habituelles »400. Se retrouve alors l'entre-deux familiarité et étrangeté des « paysages initiatiques du conte »401, comme les décrit Geneviève Calame-Griaule : Très rapidement, les choses se déforment, car ce monde, que l'on croit d'abord semblable à celui que l'on connaît, est un monde onirique, un monde à l'envers. Les animaux parlent, les objets agissent par euxmêmes, les personnages ont des comportements étranges ou énigmatiques, les traits mêmes du paysage que l'on croyait reconnaître sont inversés. Cette inversion se manifeste dans l'apparence des éléments de l'environnement [] ; leur orientation matérielle [], ou dans leurs déplacements incongrus [], que dans les attitudes des personnages [], de leurs actions [] 402 « La clé des songes », telle est l'échappatoire proposée par Rose, dans Le complexe de l'ornithorynque [131] et telle est la voie à laquelle recourent nombre de personnages de notre corpus. Rose présente alors le rêve – « le rêve éveillé »403 plus précisément - comme une façon de sublimer sa vie et d'atteindre, à une forme d'inaccessible : « Rêver, c'est ma seconde vie, secrète plus vive plus belle aussi C'est l'inespéré qui se réalise » [65] Aussi les personnages s'accordent-ils « le temps de rêver »404 les contes intimes et oniriques qu'ils se racontent à euxmêmes. Quant au lecteur, il lui faut, lui aussi, avoir le temps de rêver les imaginaires narratifs et esthétiques qui se déroulent sous ses yeux. Dans La petite fille soulevant un coin du ciel, Estelle entre dans le rêve pour recréer le paysage environnant. Le passage dans un monde onirique est signifié par le motif des yeux fermés405, ainsi que par d'autres signes sensoriels. Elle ferme les yeux d'une façon que peu de gens connaissent, éblouie par des soleils oranges qui tournoient un moment sous ses paupières en s'éteignant l'un après l'autre. Et la nuit s'installe. Alors, sans plus de bruit que la lune se dégageant des nuages, un nouveau paysage se déploie devant elle Un verger, - par un doux matin de printemps. Un vrai verger : Estelle reconnaît même le parfum des fleurs quand une branche frôle sa joue! [7] 400 Bakhtine (M.), op.cit., p. 180. Calame-Griaule (G.), op.cit., p. 48. 402 Calame-Griaule (G.), op.cit., pp. 48-49. 403 Freud (S.), « La création littéraire et le rêve éveillé », op.cit. 404 Belmont (N.), Poétique du conte, op.cit., pp. 96-132. Nous paraphrasons ici la lumineuse formule de Nicole Belmont qui ouvre le troisième chapitre : « Les contes, il faut avoir le temps de les rêver ». 405 De la même manière, dans Coeur d'Alice, la fillette est régulièrement montrée les yeux fermés 401 99 Estelle est sous l'emprise d'un éblouissement, assimilable à un vertige, qui lui donne accès à un monde merveilleux. L'« ailleurs de l'enfance »406 se caractérise par son ambivalence puisqu'il mêle le connu à l'inconnu, le familier à l'étranger ou encore le visible à l'invisible. L'album La petite fille soulevant un coin du ciel adopte l'ailleurs du conte : Le temps et l'espace du conte constituent bien, comme ceux du rêve, une autre scène, dont beaucoup d'éléments semblent cependant familiers : la maison, le château, le jardin, la forêt, l'étang [] 407 Par le biais de métaphores surréalistes, sont dépeintes les successives et fulgurantes métamorphoses du paysage. Le cycle naturel des saisons et du jour et de la nuit est chamboulé. Estelle se révèle, dans ce contexte, la médiatrice entre le monde nocturne et le monde diurne, entre l'obscurité et la lumière : « Alors, chassant la nuit sous ses paupières, s'étale un paysage ensoleillé plus vrai que nature. » À sa nuit intérieure s'oppose le jour extérieur de la nature. Le paysage change au gré de ses désirs et de ses humeurs, comme sous l'emprise de la magie. Il apparaît d'ailleurs comme quasiment impénétrable. Aussi, la rêverie poétique et créatrice de la fillette illustre-t-elle cette pensée baudelairienne : « Il faut vouloir rêver et savoir rêver. Évocation de l'inspiration. Art magique. »408 Sous l'influence d'un don occulte, la petite fille est en mesure de « [soulever] un coin du ciel ». En ce sens, elle transforme symboliquement le cosmos à l'aune de ses rêves. 100 ainsi représentée comme un corpus clausus410 ou corps non seulement refermé sur lui-même et mais encore autolimité dans l'expression de ses mouvements. De même le handicap de la fillette est rendu invisible au sein des images. L'effacement de son corps handicapé passe par la représentation omniprésente de son double inversé et idéalisé : une petite fille parfaitement valide. Les rêveries diurnes d'Estelle obéissent ici à la logique des « rêves infantiles qui sont accomplissements de désir simples et sans voile [] »411. Songeons également aux rêves de métamorphoses de « la fée sans ailes » : « Alors elle rêve de devenir plume, bulle de savon, poussière qui danse dans le ciel. » [La fée sans ailes] Ce sont autant de symboles d'un corps aérien. De même, le rêve d'Estelle – tout comme celui de Penny - se cristallise autour du désir de se mouvoir librement, sans aucune entrave physique. Aussi, la jumelle imaginaire d'Estelle est-elle essentiellement décrite au travers de ses mouvements : Car elle vient d'apercevoir là-bas, lui ressemblant comme une soeur, une petite fille qui danse, saute, court, claque des mains et gambade, à croire qu'elle n'a rien d'autre faire! D'arbre en arbre, ses rires rebondissent avec de tels éclats que les oiseaux se taisent, indignés, on n'entend qu'elle [8] A l'inverse d'Estelle qui s'évertue à se faire la plus discrète possible, l'autre petite fille n'est, elle, que mouvements et bruits. Sa présence est donc envahissante et même ostensible. Elle contraste d'ailleurs avec le calme et l'immobilité du paysage ambiant. La fillette ingambe ainsi que la dame en noir appara issent régulièrement au fil des illustrations. [Annexe : 27] Leur présence atteste de la « condensation »412 des « éléments oniriques les plus frappants »413 des rêveries diurnes d'Estelle. Estelle anime son monde chimérique au travers de son regard de rêveuse : - Indécise, la fillette rêvasse un long moment devant ces photos. [47] - Estelle contemple rêveusement le petit animal, ocre et rose [] [37] - Estelle reprend son chemin. Toute engourdie comme après un rêve. [30] La petite fille demeure donc sur le seuil de la réalité, dans un état de demi-sommeil ou de rêve éveillé. Sa rêverie diurne et contemplative est nimbée d'ésotérisme : « Alors la petite fille reste là, à rêver. 101 endroits vraiment curieux » [20]. Le paysage, qui devient alors extraordinaire, est en accord avec la vision surréaliste, puisqu'il déclenche « la rencontre fortuite de deux réalités distantes sur un plan convenant »414. La cosmologie d'Estelle est soumise au règne de l'hétéroclite. S'enchevêtrent les différents règnes naturels : « Alors elle s'assoit sur la plage, près d'un piano couvert d'algues et de moules. Ses doigts jouent avec les objets qui parsèment le sol. » [35] L'illustration correspondante se trouve dans un « rapport de collaboration »415 avec le texte qui opère une « fonction d'amplification »416. Marcella Terrusi revient ainsi sur la complexité et la polyphonie de l'album : « Il testo verbale e l‟immagine ‟danzano‟ uninterazione che può configurarsi nelle forme più diverse : ironia, paradosso, simmetria, contrasto, complementarità, parallelismo [] » (« Le texte verbal et l'image "dansent" une interaction qui peut se configurer sous des formes plus diverses: ironie, paradoxe, symétrie, contraste, complémentarité, parallélisme [] »417 L'image retient le motif principal du piano qui est orné d'autres éléments que les algues et les moules. [Annexe : 28] En effet, sur un majestueux piano à queue apparaissent également un livre de partition aux pages étonnamment blanches et usées, ainsi que des colombes. Un tissu rouge drape élégamment le piano et jonche le sol sableux. De cette composition très esthétique se dégage une atmosphère féerique. Le piano est subtilement animalisé par ses pieds et évoque les tableaux de Magritte ou de Dali dans lesquels les éléments réalistes sont transformés. Quant à Estelle, elle est représentée assise côté du piano, les yeux fermés et absorbée par le coquillage qu'elle pose contre son oreille. Elle paraît s'abstraire d'elle-même ainsi que du monde environnant, aussi bien réel qu'irréel. La posture statique de la fillette est mise en avant par cette autre pause descriptive : « Assise devant le piano tissé d'algues et de coquillages, la petite fille se tient curieusement immobile. Comme si elle avait oublié la suite de sa partition » [48] Ladite partition renvoie aux rêveries diurnes et mystiques d'Estelle. Elle reflète qui plus est la solitude de la fillette dans le monde passéiste et quasiment désert dans lequel la mène sa quête initiatique. Estelle doit précisément recréer cet univers qui n'est que pages blanches. Cette récréation passe alors par la force magique du rêve. La petite fille incarnerait alors un mage ou une oniromancienne usant de son grimoire (qui ne serait autre que le livre, posé sur le piano). L'autre monde ainsi inventé n'existerait donc qu'en tant qu'espace mental. Pourtant, cet espace est décrit comme authentique et tangible, comme l'atteste la précision de ses perceptions sensorielles. Aussi, la fillette semble-t-elle véritablement transportée dans la mer dont elle « l'odeur de l'iode » et entend « le fracas des 414 Breton (A.), Le manifeste du surréalisme, op.cit., p. 6. Van Der Linden (S.), op.cit., p. 121. 416 Van Der Linden (S.), op.cit., p. 125. 417 Terrusi (M.), Albi illustrati. Leggere, guardare, nominare il mondo nei libri per l'infanzia, Rome : Carroci, 2012, p. 115. La traduction est de nous. 415 102 vagues » [22]. Ce monde équivoque, oscillant entre le tangible et l'intangible, se cristallise autour d'un processus de « dramatisation » du rêve. De fait, « la pensée du rêve est presque toute faite d'images [] et le rêve organise ces images en scènes, il dramatise une idée. »418 Dans l'album La petite fille soulevant un coin du ciel, « la figurabilité »419 du rêve se manifeste par une constellation de signes sensoriels. L'autre monde mis en scène semble quasiment arrêté, en raison du calme qui enveloppe « le hameau perdu » [39]. Dans ce monde reculé et paisible du rêve ou du conte de fées « c'est en toute tranquillité que le mendiant peut compter les truites du ruisseau. » [12] Bancroche le mendiant et Estelle sont dépeints en osmose avec la nature au sein de laquelle ils se recueillent. Ils sont montrés absorbés tant par le paysage extérieur que par leur paysage intérieur, comme le suggèrent leurs visages baissés. La quiétude - celle des sources d'eau (rivière, mer) - est alors propice à une rêverie poétique. Et Gaston Bachelard de constater à ce sujet que « dans l'eau dormante, le monde se repose. Devant l'eau dormante, le rêveur adhère au repos du monde. »420 De même, l'omniprésence du bleu de la mer et du ciel ainsi que du vert de la nature connote une atmosphère rassurante, signe d'espérance et de liberté. Quant aux colombes qui surgissent ici et là elles sont symbole de paix et d'espoir. Ce monde idyllique témoigne de l'état de ravissement d'Estelle qui se trouve donc au septième ciel. Le ciel soulevé par la petite fille est non seulement celui du rêve mais aussi celui de l'espérance et de la Providence. Pourtant le monde merveilleux d'Estelle n'est pas uniquement empreint de béatitude. C'est un monde binaire qui mêle les valeurs positives et négatives. Aussi les contrées imaginées par Estelle se caractérisent-elles par leur « horizon mélancolique » [La petite fille soulevant un coin du ciel : 35]. Les paysages épurés - souvent réduits à quelques éléments naturels (arbre, cailloux, ciel) reflètent la solitude d'Estelle. Pensons alors à l'omniprésence du saule aux branches pendantes. Ce saule pleureur, à l'image des autres éléments naturels, sert de réceptacle à l'affliction de la fillette : Quelquefois, son coeur se gonfle à craquer de tristesse. Alors elle va se cacher à l'ombre d'un rocher, ou dans un recoin sombre de la forêt421. Là, elle s'assoit sur un coussin d'herbes. Et elle baisse les paupières Pas pour s'endormir, ni plus pour voir ce qui l'entoure. Non. Elle ferme les yeux d'une façon qu'elle a inventée, en les tournant l'un vers l'autre, comme si elle lorgnait une mouche posée sur le bout de son 418
Freud
(
S.), L'interprétation des rêves, op.
cit
.
,
pp
. 51-52
. Freud
(
S
.), op.cit., pp. 291-300. 420 Bachelard (G.), op.cit.,
p. 169
. 421 L'égarement de la fille dans la forêt revêt une importance significative dans la structure diégétique. Nous rejoignons ainsi les propos d'Yvonne Verdier, quant au parcours forestier du héros des contes merveilleux : « Ce que cache et retient captif le monde ier en son ultime tréfonds, ce sont les éléments de l'ordre cosmique, le soleil, la lune, les étoiles, soit les rythmes mêmes du temps humain – la nuit, le jour, les saisons – et de la marche du monde. Le parcours forestier du héros peut donc se comprendre comme une quête des éléments qui ordonnent le monde, car ces éléments appartiennent à l'univers forestier, et c'est par l'intermédiaire de son peuple qu'on peut les obtenir. » (Yvonne Verdier, « Mythologie de la forêt », in Coutume et destin. Thomas Hardy et autres essais, pp.223-240, p. 231) 419 103 nez [] Et son corps se fait de plus en plus léger. Il devient vaporeux, impalpable. Comme un flocon de brume. Alors, chassant la nuit sous ses paupières, s'étale un paysage ensoleillé plus vrai que nature. Elle s'y engage sur la pointe des pieds. [20] Estelle est représentée seule, perdue dans l'immensité de la nature et plus précisément dans le hameau ou dans la forêt. Elle se retrouve au beau milieu de la nuit et aussi quelquefois dans le froid de l'hiver. Or, l'hiver symbolise l'ultime saison de la vie et donc la mort. Ce sombre scénario rappelle celui du Petit Poucet, abandonné au coeur de la forêt422 et en proie à ses angoisses nocturnes. La « traversée de la forêt » - une traversée initiatique - est une des séquences constitutives des contes merveilleux423. Elle est souvent réactualisée dans les albums. De même, le lien intertextuel entre le conte de Grimm et La petite fille soulevant un coin du ciel s'ancre autour du motif emblématique des petits cailloux blancs (comme nous le montrerons ci-après). Revenons-en au décor, à la fois poétique, enchanté et désenchanté, d'Estelle. Une des doubles pages de l'album montre la fillette enfouie sous l'immensité d'un paysage enneigé. [Annexe : 28] Elle est donc perdue dans l'infini de la nature, tandis qu'elle incarne la finitude qui incombe à tout humain. La nature se fait tour-à-tour accueillante et hostile, comme l'évoque l'alternance de paysages lumineux, sereins et de paysages sombres, mélancoliques et même angoissants. Ainsi, Estelle avance « toute frissonnante dans l'ombre glacée » [8]. Le décor qui s'offre à elle est quelquefois chaotique. La terre est dévastée : elle n'est plus que « décombres » [30, 35]. Les herbes y sont coupantes [35] et sauvages (ce sont des « ronces », [33] et pour finir les « ruines de villas » sont ensevelies par le sable [35]. De dans ce monde déliquescent et souvent pénétré par la nuit, les « maisons d'ardoise [sont] branlantes » [11] et se logent « entre deux collines râpées par le vent » [11]. Une des illustrations dévoile un paysage apocalyptique, au travers de la prédominance de la couleur rouge, un rouge vif dû à « la poussière rougeoyante du soleil » [30]. La même symbolique est signifiée par l'arbre coupé en deux, ainsi que par les énormes rochers, qui scindent la nature en deux. Ces rochers renvoient ainsi à une montagne infranchissable. De ce tableau, se dégage une impression de nature qui explose et qui figure l'Enfer424. La nature se fait aussi menaçante sur une autre image : le ciel est obscurci et une vaste plaine abandonnée occupe le premier plan. 104 panorama navrant s'apparente à un cimetière à ciel ouvert. Sont ainsi dévoilées les visions angoissées ou cauchemardesques d'Estelle. Le motif exacerbé de l'arbre - un saule plus particulièrement - régit la poétique culturelle de l'album La petite fille soulevant un coin du ciel. Il sert à la fillette de « point de repère » [25] sur le plan à la fois temporel et spatial. Cet arbre quasiment séculaire et par là même sacralisé investit aussi un rôle culturel. Il est garant de la mémoire à la fois collective (la vie du hameau) et personnelle (la fillette). Cet arbre-foyer paraît assurer la protection et de Bancroche et d'Estelle425. Enfin, l'arbre symbolise le cycle de saisons en lien avec le cycle de la vie. Il se cristallise autour de la dialectique mort/régénération. L'entre-deux mort/renaissance est au coeur de la cosmologie d'Estelle. Les premières séquences de l'album s'ouvrent sur l'évocation d'un verger et sur une nature printanière. Le premier arbre à être illustré est d'ailleurs très fleuri. Toutefois, la majeure partie du récit se focalise sur ce lieu déserté qu'est le hameau. Apparaît alors l'image du « vieil arbre » [12] qui est la personnification même du vieux mendiant Bancroche. Ce dernier est adossé contre l'arbre qui prolonge en quelque sorte son corps. Et les branches esquissent ainsi un visage d'homme qui n'est autre que celui du vieux monsieur. Se lit ainsi la parfaite continuité entre le végétal et l'humain qui caractérise le « territoire de l'animisme »426. La nature est alors animée par la combinaison d' « éléments anthropomorphes évoquant l'intentionnalité humaine, généralement un visage avec des attributs spécifiques évoquant la physicalité d'une espèce. »427 Ce paysage anthropomorphe s'inscrit par là-même dans une tradition artistique428. Il est empreint de romantisme à travers l'image du « vieux saule, au bord du ruisseau » [12], ainsi que la présence de la lune. Si le saule connote la mélancolie, il symbolise le plus souvent le deuil et la mort. Il immortalise l'image de la dame en noir - la défunte mère d'Estelle - qui hante les pensées de la fillette. La première de couverture représente ainsi un arbre linceul, drapé par un tissu rose et jonchant le sol. 105 la dame en noir, par le biais du tissu sur lequel elle chemine. Toute une « poésie des intersignes »429 atteste de la résurgence de la figure de la défunte. Il en est ainsi du miroir brisé et des arbres étêtés, présents sur un paysage enneigé ainsi que sur les lettres enluminées, « L » et « U ». Ce sont autant de signes rétrospectifs qui marquent l'« ombre résurgente de ce qui est arrivé »430 : la mort déjà effective de la mère. La fin de l'album marque la renaissance symbolique de l'arbre qui recouvre son feuillage et de la mère. Sur un paysage très ensoleillé et lumineux, la dame en noir se tient à côté d'un rosier. Ce dernier renvoie à l'arbre de vie ou l'arbre du paradis terrestre qui serait ici régénéré. Il symbolise la médiation entre le monde visible ou terrestre et le monde invisible ou céleste. Il permet de ce fait la rencontre entre la mère et la fille, comme le relate le texte. D'ailleurs, l'arbre incarne véritablement un objet transitionnel entre Estelle et les autres (sa mère mais aussi Bancroche). Il en va de même pour d'autres objets intercesseurs, tels que les graviers, les coquillages ou encore le tissu rouge. Ce dernier connote la beauté féminine de la mère qui tient dans l'une de ses mains un éventail rouge, sur l'une des images. Le tissu renvoie aussi au « fil rouge » reliant affectivement la mère et la fille. Quant au « tas de gravier bleu » sur lequel se réfugie Estelle, il entre en résonance avec le semis de cailloux blancs du Petit Poucet. D'ailleurs, dans les deux cas, les cailloux esquissent un chemin symbolique entre l'enfant et son/ses parent(s). Ils signifient donc la continuité et « la préservation du lien »431. Le cheminement initiatique d'Estelle est explicitement mis en exergue : « Elle s'assoit de l'autre côté du chemin. Sur un tas de gravier bleu qui ne semble exister que pour la circonstance. » [14] La locution adverbiale « de l'autre côté » dit la traversée de la fillette vers l'autre monde - invisible et merveilleux - où se trouve sa mère. Cette même idée est reprise un peu plus loin dans l'album : « Quand elle atteint le tas de gravier bleu, Estelle reprend son chemin. 106 paysages maritimes ou sablonneux incarnent des espaces intercesseurs, préfigurant les retrouvailles entre la fillette et sa mère. Le même sens est investi par les intersignes de l'arbre fleuri, du gravier ainsi que du tissu. Dans l'économie discursive et culturelle de l'album, ces signes sont annonciateurs d'un événement non pas funeste mais salutaire et même providentiel. Ce sont donc des bons signes, c'est-à-dire des signes prédictifs ou annonciateurs du bonheur. Ils rompent avec la tradition des intersignes définis comme des mauvais signes, funestes. Dans La petite fille soulevant un coin du ciel, les intersignes textuels et iconiques sont resémantisés. De même, la mantique de la mort est reconfigurée : En effet, c'est la structure narrative profonde du récit et donc sa cosmologie culturelle propre, bref son écriture même qui est en partie motivée (entre autres schèmes organisateurs bien sûr) et dynamisée par une coalescence littéralement in-ouïe entre une mantique et une sémantique.434 Estelle part, symboliquement, sur les traces de sa mère et suit des indices, alors matérialisés. Elle se met en quête d'un objet intercesseur : l'éventail de sa mère qu'elle retrouve d'ailleurs. De même, elle franchit un seuil initiatique puisqu'elle ouvre la porte du monde invisible : « Alors un formidable grincement vrille ses oreilles. A croire qu'une porte gigantesque tourne pesamment sur ses gonds, quelque part » [47]. L'accomplissement de ces épreuves qualifiantes favorise la rencontre entre Estelle et sa mère. Cette rencontre est toutefois uniquement exprimée par le texte. L'illustration ne montre que le seul personnage de la mère vu à travers le regard d'Estelle. La dame noire ne serait donc qu'une apparition dans l'esprit de la petite fille. En atteste d'ailleurs « [] son visage [qui] demeure aussi flou, aussi incertain qu'une tache de lumière voilée par la brume » [48] Il en de même pour la soeur imaginaire d'Estelle, « gambadant au loin dans la lumière » [20]. Cette lumière serait celle du rêve ou du monde invisible. Le dernier portrait iconique de la mère d'Estelle insiste, une fois de plus, sur son évanescence : son teint est blême (quasiment cadavérique), son visage est complètement vierge - parce que dépourvu de tous ses éléments constitutifs (nez, yeux, bouche) - et ses cheveux, blancs, sont au vent. S'impose ainsi l'image d'une revenante, à la fois morte et vivante. Aussi le paysage qui s'affiche sur la dernière illustration connote-t-il l'allégresse. La nature paraît bienveillante et apaisée, comme le manifeste le paysage coloré : un parterre de roses, de cailloux bleus et de coquillages. L'arbre, manifestement sacré, pourrait cette fois-ci symboliser la rédemption de la fillette. Il signifie également la transcendance du corps d'Estelle, qui est désormais valide. Toutefois, « l'horizon mélancolique » affleure toujours à travers l'image de l'arbre linceul. Au sein de cet arbre, à nouveau étêté, se logent l'âme de la défunte mère d'Estelle ainsi que celle de Bancroche. En dépit de la situation finale euphorique du récit, les intersignes de la mort ne disparaissent pas pour autant. En attestent les motifs du miroir brisé, de l'éventail de la dame en noir ou encore de la mer agitée. Ils semblent, toutefois, tendre vers une douce poétisation du monde. L'épilogue de l'album donne alors à voir une situation, tant dysphorique qu'euphorique. Ainsi l'imaginaire icono-verbal sublime l'opposition « cartésienne » (naturaliste) des polarisations thymiques. Les personnages handicapés sont in fine saisis, en tant que « rêveurs du monde »435 : « [ils] s'[ouvrent] au monde et le monde s'ouvre à [eux]. » 436 Leurs « rêveries cosmiques » tracent des « chemins d'images »437 porteurs d'onirisme. Cet onirisme merveilleux rappelle celui des contes. D'après Nicole Belmont, « le merveilleux des contes merveilleux résiderait essentiellement dans la profusion et la beauté de ces images, qui semblent comme échappées d'un rêve - elles proviendraient des mêmes sources -, images élaborées et mises en scène pour traduire et dissimuler à la fois des significations importantes. Le conte merveilleux, ce serait peut-être tout simplement un chemin d'images. » [38] Quant au chemin d'images des albums de notre corpus, il donne à voir une « célébration festive de l'enfance »438, célébration qui révèle la relation poétique au monde du personnage enfantin. 2.3. A l'école de l'art
Les personnages de notre corpus recréent symboliquement le/leur monde mais aussi leur corps, grâce à leur « compétence imageante »439. Et Leur pouvoir (ré)créatif se manifeste seulement au travers de pratiques ludiques – notamment les jeux et les « rêves éveillés » - mais aussi artistiques. De fait, les enfants et les adolescents peuvent aussi être saisis à travers leur appartenance à une culture graphique qui renvoie notamment aux « productions enfantines 440» artistiques
. Les 435 Bachelard (G.), La poétique de la rêverie, Paris : P.U.F., 1999 (1960), p. 148. Bachelard (G.), op.cit., p. 148. 437 Belmont (N.), Petit-Poucet rêveur. La poésie des contes merveilleux, Paris : Éditions Corti, 2017. 438 Perrot (J.), Jeux et enjeux du livre d'enfance et de jeunesse, Paris : Cercle de la librairie, 1999, p. 288. 439 Schaeffer (J.-M.), op.cit., p. 323. 440 Fabre (D.), « « C'est de l'art! » : Le peuple, le primitif, l'enfant », Gradhiva, 9, 2009, pp.4-37 et p. 30, consulté le 4 Août 2017, disponible sur : http://journals.openedition.org/gradhiva/1343 436
108 jeunes sont ainsi représentés en tant qu'acteurs culturels - dessinateurs ou peintres - face à des objets culturels, le dessin par exemple. L'enfant créateur incarne alors « l'autre de l'art », c'est-àdire celui qui lui est de prime abord étranger. Alors l'autre de l'art4, c'est-à-dire toutes les formes (de tous les arts) étrangères à l'école, à l'académisme, aux normes du bon goût et aux habitudes du sens commun, devient non seulement une marge à secréter et à explorer, mais une ressource stratégique : pour les uns, qui visent à remanier les fondements mêmes de l'idée et des façons de faire de l'art, pour les autres, qui construisent des sciences de l'homme dont une part souvent implicite est vouée à comprendre les pratiques et l'essence que le terme « art » désigne désormais, énigmatiquement.441 Aussi l'initiation de l'enfant à l'art relève-t-elle de « l'éveil primitif de l'homme dans l'art [] »442. L'art enfantin marqué par sa spontanéité se définit ainsi, par essence, comme l'art naïf des enfants. Il est mis en scène dans les albums de littérature de jeunesse. Une inspiration réciproque et dialogique s'établit ainsi entre l'art légitime et « savant » du grand-père et l'art ingénu de Yu'er. De même que le motif des jeux et des jouets, le dessin sert à dévoiler la « grande faculté d'abstraction et [la] haute puissance imaginative »443 des enfants. Il révèle également le regard subjectif et sensible que l'enfant pose sur le monde. La culture artistique du personnage est le plus souvent corrélée à l'apprentissage en contexte scolaire. Ainsi, l'album Et moi quand je serai grand se cristallise autour du « grand concours de dessin » organisé à l'école et dont le thème est « Dessine-nous ton idée du bonheur! »444 Le dessin sert de médium à une réflexion philosophique empreinte de subjectivité enfantine. Une illustration entière est consacrée au « savoir-faire » artistique des enfants, qui sont donc dépeints en pleine activité créatrice, le pinceau à la main et face à une table ou à un chevalet. Le texte abonde dans ce sens : « Le lundi suivant on a du mal à reconnaître la classe. Quelle activité! Les enfants dessinent dans tous les coins. [] » Leurs dessins représentent, de façon schématique et/ou imagée, un portrait ou un paysage ou encore des animaux. Ces créations enfantines passent de la sphère privée de la salle de classe à la sphère 441 Fabre (D.), op.cit., p. 6.
Fabre (D
.
), op
.
cit
.,
p
. 19. 443 Baudelaire (C.), « Morale du joujou » (
1853
),
OEuvre
s
compl
ètes
. Paris
: Laffont, 1989, p. 340.
444 Cette consigne entre en intertextualité tacite avec le cancre décrit par Prévert qui « [] sur le tableau noir du malheur/ [] dessine le visage du bonheur. », in Prévert (J.), publique d'une autre salle de l'école, alors aménagée en une temporaire salle d'exposition. Les enfants - peintres et exposants en herbe - ainsi que leurs visiteurs (parents et personnels de l'école) se retrouvent autour des « arts de l'enfance »445. Ce dispositif spatial et culturel rappelle celui du musée, comme le souligne Tilou lui-même : « Le grand jour est arrivé. On se croirait dans un musée! Tilou est très impressionné de voir les parents qui défilent en faisant des commentaires sur chaque dessin. » Ainsi exposées et critiquées, les réalisations des élèves sont légitimées pour leur valeur artistique. Quant au néologisme enfantin « crabouillage », il se rapproche - ne serait-ce que morphologiquement - du « barbouillage », autre expérience graphique enfantine tout autant dévaluée. Le dessin de Tilou dépeint un ostensible éclatement de couleurs et de formes indéfinies, alors entrelacées. Aussi, le gribouillage tend-il à s'inscrire du côté de la pensée sauvage, autrement dit du non civilisé ou non policé : « Le graphisme, très spécifique, est en effet celui des tout premiers « stades » du dessin d'enfant, quand la pulsion graphique est encore à l'état brut ou qu'une vague représentation commence juste à prendre tournure : le gribouillage purement gestuel, avec ses traits brusques et ses tourbillons [] »448 Parce que le dessin n'est ni parfaitement structuré ni formellement achevé, il apparaît « raté » aux yeux de Tilou. De même, le geste graphique de ce dernier laisse à penser qu'il est non domestiqué et donc dé-réglé. Il s'affranchit ainsi du règne de la ligne droite et parallèle. De fait, son 445 Robert Ablett théorise le concept de « l'art de l'enfance », en 1904 (in Beuvier (F.), «
Le
dessin d'enfant
expos
é
,
1890-1915
. Art
de
l'
enfance et essence de
l'
art
», Gradhiva, 9 | 2009, consulté le 4 Août
2017. 446 Baldy (R.), « Dessin et développement cognitif », Enfance 2005/1 (Vol. 57), pp. 34-44 et p. 35, consulté le 7 Août 2017,
disponible sur : https://www.cairn.info/revue-en
fance1-2005-1-
p-34.htm René Baldy précise que « selon Luquet (1927), le dessin de l'enfant est figuratif puisqu'il « a pour rôle
essentiel de représenter quelque chose » (p. 99) » 447 Champfleury (J.), « L'imagerie de cabaret », Le National, 16 octobre 1851. Cité in Fabre (D.), « C'est de l'art! [] », op. cit., p. 8. 448 Georgel (P.), « Regards sur l'« autre » dessin d'enfant. Autour de Fallimento de Balla », Gradhiva, op.cit., consulté le 4 Août 2017, pp. 55-81 et pp. 61- 62, disponible sur : http://journals.openedition.org/gradhiva/1368 110 « graphisme automatique »449
se caractérise par un tracé irrégulier et sinueux. Or, la « déraison graphique »450 est d'autant plus manifeste que Tilou peint, de façon instinctive et plutôt incontrôlée, avec sa bouche. Par cette expérience esthétique, se joue alors un possible manquement culturel. La situation tourne néanmoins à l'avantage de Tilou qui est « le grand vainqueur du concours ». Il obtient ainsi la reconnaissance des spectateurs en tant qu'artiste. Par ce changement symbolique de statut social, il trouve sa place au sein du « groupe-classe » et de la société : « Maintenant il sait ce qu'il fera quand il sera grand : il sera artiste peintre! » De même sa peinture n'est plus (uniquement) regardée comme un dessin d'enfant mais elle est valorisée en tant qu'oeuvre d'art. En effet, son dessin créatif entre en résonance avec le mouvement impressionniste. Sa capacité de symbolisation est ainsi mise en exergue : ses impressions de bonheur sont évoquées par taches de couleurs bigarrées. Aussi, son mode d'expression tant artistique que narratif reflète-t-il sa cosmologie. En effet, son expérience esthétique témoigne d'une façon d'être au monde et de voir le monde. Le peintre néophyte associe le symbolisme des couleurs à celui des émotions, grâce à la force imageante des synesthésies : « Pour moi, le bonheur, c'est de toutes les couleurs! » Le motif iconique et poétique de l'arc-en-ciel se profile alors. Par ailleurs, le dessin de Tilou pourrait se définir par un « chaos de lignes, [un] mouvement tourbillonnant » qui se révèle cohérent dans son incohérence même ou encore signifiant dans son apparent non-sens.451 Quant à l'ascension sociale du protagoniste, elle est révélée par l'espace de création qui lui est finalement attribué. Ainsi, une immense toile investit le premier plan de la dernière illustration de l'album. Et cette toile se substitue à la simple feuille de dessin qui lui était assignée lors du concours. De plus, l'arrière-plan de cette planche illustrative para ît être une mise en abyme de l'art pictural de Tilou. L'univers artistique des enfants influe sur l'univers iconique des albums. Aussi, les illustrations affichent-elles un style graphique enfantin, dans la continuité de celui du personnage artiste. L'album Et moi, quand je serai grand donne à voir des fondus de couleurs pastel et vives. L'impression de luminosité et de douceur passe par la technique de l'aquarelle ainsi que par la prédominance du jaune et du vert. Est ainsi connotée une atmosphère optimiste et joyeuse en lien avec la thématique centrale de l'album : le bonheur. La même vision euphorique se manifeste dans Alice sourit mais à travers d'autres techniques plastiques. De fait, les illustrations aux crayons de couleurs semblent être coloriées à la manière des enfants, c'est-à-dire hachurées maladroitement par des traits en zig-zag. De même, ces traits de couleurs s'entremêlent et ne suivent donc pas l'ordre
449 Mouakhar (N.), Creare ut facere : Essai sur le barbouillage dans la peinture, Paris : Connaissances et savoirs, 2017, p. 131. 450 Privat (J.-M.), « La raison graphique à l'oeuvre », Les actes de lecture [En ligne] 108, 2009, pp. 45-54 et p.50, consulté le 10 Mai 2017, disponible sur : https://www.lecture.org/ revues_livres/ actes_lectures/AL/ AL108/AL108_p045.pdf
451 A l'image des tableaux du peintre Fallimento qui s'inspirent d'ailleurs des arts de l'enfance (in Georgel (P.), op.cit.) 111 graphique de la ligne rectiligne. Quant aux tons pastel et harmonieux, ils connotent la douceur ou encore l'insouciance de l'enfance. La même posture esthétique se manifeste dans Les contes de la ruelle. Le lecteur est de facto invité à une escapade au sein des ruelles d'un quartier de Pékin et il y découvre alors des scènes de vie, par l'entremise d'aquarelles. Cette aventure lectorale est tant spatiale que picturale. L'initiation artistique du personnage occasionne celle plus latente du lecteur qui se pose aussi en spectateur des images. Les doubles pages de l'album symbolisent alors une galerie ou une exposition d'art au style graphique inventif. L'album se fait symboliquement oeuvre d'art. Il permet ainsi une forme de médiation culturelle indirecte qui vise à « inclure [le lecteur] dans la communauté des amateurs d'art. »452 Le personnage et le lecteur vivent en comitance une « expérience esthétique », à la fois « attentionnelle », « émotionnelle » et « hédonique »453. Comme le soulignent Anne-Leclaire Halté et Luc Maisonneuve (plus particulièrement, au sujet des documentaires sur les peintres en littérature de jeunesse) : Ainsi, une image du regard sur l'art, subjectif plutôt que savant, est donnée par ces textes, qui imitent sur les émotions ressenties à la vue du tableau plus que sur une approche analytique, technique.454 Ainsi, l'album Frida, très chaleureux du fait de ses couleurs vives, permet une sensibilisation esthétique à la peinture de Frida Kahlo. Au fil de l'album se déploient des illustrations représentatives de l'art moderne. De plus, « une seule double page présente de face un tableau mis en abyme, de sorte que nous ne savons plus où commence la toile et ou finit monde réel. 452 Leclaire-Halté (A.), Maisonneuve (L.), « Les albums documentaires sur les peintres : un exemple d'interdisciplinarité au cycle 3 de l'école primaire », Pratiques [en ligne], 175-176, 2017. Consulté le 28 Décembre 2017, disponible sur : http://journals.openedition.org/pratiques/3611 453 Schaeffer (J.-M.), op.cit. Ces trois aspects de l'expérience esthétique traversent l'ensemble de la démonstration de Jean-Marie Schaeffer. 454 Leclaire-Halté (A.), Maisonneuve (L.), op.cit., p. 7. 455 Chabrol-Gagne (N.), op.cit., p. 185. 456 Chastel (A.), Le tableau dans le tableau, Paris : Flammarion, coll. « Champsart », 2012 (1978), p. 43, 457 Chastel (A.), op.cit., p. 41. Les arts de l'enfance s'invitent dans Alice sourit. Une séquence iconotextuelle est consacrée à la pratique artistique de la peinture à laquelle s'adonne la fillette. Celle-ci est en effet saisie en tant que sujet de l'action, par le biais notamment de la phrase minimale : « Alice peint ». Sont montrées les « capacités symboliques et graphomotrices »458 de la fillette. Sur une feuille de papier figurent deux « archétypes du dessin enfantin » des cultures occidentales : le bonhomme et le soleil. Alice puise implicitement dans « le répertoire de signifiants graphiques dont dispose l'enfant de certaines propriétés de l'objet. »459 Alice dessine un bonhomme de façon très schématique et disproportionnée ou dé-mesurée, à travers l'assemblage de « signifiants graphiques [] rudimentaires (rond et trait) »460. Cette représentation stéréotypée du bonhomme traduit une tradition graphique de la culture enfantine. Le geste graphique d'Alice apparaît, par ailleurs, indiscipliné et témoigne ainsi d'un apprentissage encore inachevé : les traits de peinture débordent des contours de la figure dessinée. A l'inverse, le dessin figuratif d'Hortense, quoique relativement simple, s'avère élaboré et soigné. En plus d'être relativement réaliste, il est colorié avec dextérité. Tel est le signe de son « arraisonnement graphique »461. Ses aptitudes graphiques et figuratives attestent plus particulièrement d'une évolution vis-à-vis des premiers stades du dessin enfantin. À partir de huit ans, les formes qui caractérisent les premiers dessins sont progressivement relayées par des signifiants graphiques plus sophistiqués qui satisfont les conventions des modèles culturels présents dans l'environnement et qui sont jugés plus ressemblants par rapport à ce qu ils veulent figurer.462 De même, le dessin de la petite fille se conforme à la norme esthétique du beau dessin, en raison de ses couleurs harmonieuses et apaisantes. Bien que la réalisation graphique d'Hortense ne soit qu'un simple motif iconique au sein de l'album, elle est loin d'être anecdotique. En effet, il s'agit de l'objet central de l'intrigue, c'est-à-dire le bateau de « La fleur des vagues ». Une fois réalisé, le dessin de la petite fille sert même d'affiche de recherche. Il est exposé dans un espace public : une station d'essence. L'imaginaire artistique d'Hortense est déterminé par un environnement géographique et culturel : la vision d'un paysage maritime. Il en est de même pour les dessins figuratifs de Charlotte qui représentent des lieux réels, tels que le Mont-Saint-Michel et Tomblaine [Robinsone : 26] ou encore un étang [51]. 113 ou encore Yu'er s'inscrivent ainsi dans une communauté culturelle. En effet, le dessin figuratif renvoie à une « ontogenèse du dessin [qui] est principalement marquée par l'acquisition par imitation de schémas graphiques propres à la culture d'appartenance de l'enfant. »463 Le savoir artistique du personnage ne se rattache pas exclusivement à l'espace scolaire. Ainsi, il se joue tantôt dans l'espace de la domus - la chambre d'Hortense - tantôt dans le campus ou le saltus – la cour du collège ou l'île de Charlotte. Quant à l'apprentissage pictural d'Yu'er, il se déroule à l'extérieur, dans une des ruelles de Pékin qui structurent d'ailleurs la bande dessinée. Plusieurs illustrations des contes de la ruelle la représentent aux côtés de son « passeur », le peintre Hu Xizhi. Ils se tiennent tous deux face à leur chevalet et sont en passe de créer un paysage. L'initiation à l'art de la petite fille est d'abord de nature mimétique. En effet, parce qu'elle est charmée par les dessins de l'éminent peintre de sa cité, elle a aussi envie de s'essayer au dessin : « Il me donne envie d'apprendre à dessiner. » Et elle commence à reproduire un modèle, comme le souligne son papi : « C'est Yu'er qui l'a fait en s'inspirant de tes dessins, elle les adore! ». Aussi, s'imprègne-t-elle de la vision artistique du peintre qui lui est transmise. L'« univers plastique de l'enfant »464 est au coeur même des albums La poupée cassée. Un conte sur Frida Kahlo465 et Frida qui retracent, avec force imagination, l'enfance artistique de Frida Kahlo. Dans Frida, l'accent est mis sur la force salvatrice de la peinture : « À l'hôpital, c'est la peinture qui la sauve une fois de plus. Comme son amie imaginaire, la peinture est toujours là quand elle en a besoin. Elle lui tient compagnie et lui permet de garder espoir. » Outre la peinture, la photographie est un des autres fils narratifs. S'esquisse ainsi le lien tissé entre Frida et son père qui lui sert de passeur dans son initiation artistique. Dans La poupée cassée, la fillette incarne tout d'abord un modèle photographique pour son père. Son image est, symboliquement consignée dans l'objectif de l'appareil photographique de son père : « L'image de Frida était emprisonnée quelque part dans cette boîte noire. Son identité véritable s'efface, au profit de son image alors répliquée et réfléchie par le cliché. Elle se confond symboliquement avec son corps-image : « Elle observe son double dans l'abysse du miroir »466. Aussi apparaît-elle comme le sujet quasiment exclusif de son art - photographique et pictural -, au fil de l'album. Il est ainsi fait écho au véritable parcours artistique de Frida Kahlo qui a peint nombre d'autoportraits. Son lit est recouvert d'un baldaquin, sous lequel est placé un grand miroir sur toute la longueur, de sorte qu'elle peut se voir et se servir d'elle-même comme modèle, à défaut d'autres sujets. C'est dans cette peinture miroir qu'elle puise sa substance. D'où l'abondance d'autoportraits (plus de soixante-dix) grâce auxquels elle accède, dans son art comme dans sa vie, à une nouvelle identité : « Je me peins parce que je passe beaucoup de temps seule et parce que je suis le motif que je connais le mieux. 467 Le statut de Frida est également porteur d'ambivalences. La fillette est ici dépeinte de façon concomitante comme l'objet et le sujet de l'action ou encore comme l'artiste et le modèle de son art. L'illustration correspondante montre ainsi la mise en abyme468 de son corps peignant et de son corps peint - qui est alors enserré dans un cliché photographique, en noir et blanc. [Annexe : 29] Ces deux portraits en miroir de Frida se font face dans un vertigineux jeu réflexif. Le portrait iconique représente Frida dans la posture traditionnelle du peintre, c'est-à-dire debout, tenant un pinceau d'une main et une palette de peinture de l'autre. Son savoir-faire artistique est ainsi mis en avant. L'autoportrait pictur de Frida sur lequel se conclut La poupée cassée instaure également une distance vis-à-vis des représentations canoniques de soi. Cet autoportrait apparaît comme transgressif en raison de son caractère rétrospectif. En effet, un écart temporel sépare la portraitiste devenue une jeune femme de dix-huit ans - de la portraiturée, c'est-à-dire la fillette du passé qu'elle était alors469. Elle ne reflète à vrai dire qu'une réminiscence et donc une image intériorisée et incorporée d'elle-même. Bien des années plus tard, à l'âge de dix-huit ans, Frida eut un très grave accident. [] Mais le rêve de la poupée lui revint très clairement. [] Elle réclama un grand miroir, des crayons et du papier. Puis elle commença à dessiner la poupée cassée. 466 Gardou (C.), « Frida Kahlo : de la douleur de vivre à la fièvre de peindre », Reliance 2005/4, n°18, pp. 118-131 et p. 119, consulté le 19 Juillet 2017. 467 Gardou (C.), op.cit., pp. 121-122. 468
Cet effet de mise en abyme participe également du processus de mise à distance vis-à-vis de son propre corps. En effet, les portraits photographiques et picturaux de la petite Frida lui révèlent sa propre altérité. 469 L'album La poupée cassée reste arrêté sur la représentation de Frida en petite fille. A l'inverse, l'album Frida met lui en scène, de façon chronologique, les différentes étapes de vie de Frida Kahlo. Son corps évolue alors de petite fille à jeune fille puis à jeune femme. Ainsi, à travers l'art, son image est comme immortalisée, fixée pour l'éternité. Frida défie ainsi symboliquement la mort. De même, son initiation picturale traduit une phase de marge, corporelle et identitaire. Son souvenir d'elle-même est non seulement fixé par le tableau mais aussi figé. Son corps, alors enserré dans l'espace de la peinture, est marqué par son immobilité (seul indice d'une infirmité). Frida est ainsi représentée assise, toute droite et donc statique, les genoux pliés, sur une chaise. Quant à son visage, il est non seulement impassible mais il demeure presque invariablement figé dans cette même expression, tout au long de l'album. Par ailleurs, le drap blanc, chamarré et drapé qui recouvre ses jambes concourt à l'effacement symbolique du corps handicapé470. [Annexe : 30] Ce drap sort de l'espace du tableau pour se prolonger sur le chevalet, au travers d'un effet métaleptique. La porosité entre les différents niveaux iconiques (la toile représentée et l'illustration principale) donne lieu à un jeu à la fois transgressif et créatif. L'autoportrait dévoile, par ailleurs, l'expérience subjective faite par Frida d'une autre corporalité. De fait, par l'entremise de la peinture, elle porte un autre regard, plus distancié, sur son corps qui lui est devenu étranger. Cette re-présentation de soi - saisie dans un entre-deux identité/altérité - permet donc de se regarder « soi-même comme un autre »471. Toutefois, bien que par essence réflexif, « [] le regard-de-soi est toujours déjà relié au regard de l'autre. »472 D'où la dialectique des regards, entre son propre regard de portraitiste, celui de son image portraiturée et enfin celu du « spectalecteur »473 implicite (qui affleure dans le hors-champ). L'expérience du handicap peut a fortiori constituer un vecteur de la création artistique : « L'art favorise un processus de subjectivation et de réappropriation du corps dépossédé. L'art permet de s'habiter soi-même et d'habiter le monde, offrant des modalités d'expression [] ».474 Aussi l'autoportrait de Frida donne-t-il lieu à une recréation et même à une sublimation de son corps paralysé. La mort symbolique de son corps causée par l'accident est suivie d'une renaissance symbolique du corps par l'art. De fait, la liberté créatrice sert de palliatif à l'emprisonnement corporel. Elle entraîne également la reconnaissance sociale de l'individu, en tant qu'artiste. Dans La poupée cassée, l'autoportrait final de Frida montre l'euphémisation et même la transfiguration de son corps infirme, revêtu avec raffinement d'un drap blanc drapé. Frida dévoile tout en voilant son corps blessé, par la peinture. Son autoreprésentation évoque une transcendance très esthétique, comme l'attestent la lumière qui se dégage du tableau, ainsi que la posture solennelle et quasiment altière de la fillette. Cette représentation artistique rappelle celle de la Vierge en majesté ou Maestà - qui est au coeur de l'iconographie chrétienne. La Maestà est « [représentée] de face, dans une attitude hiératique, généralement [assise] sur un trône »475 La pose de Frida, assise majestueusement sur son lit à baldaquin et les bras croisés, est, elle aussi, toute empreinte de sacralité. La liminarité physique du personnage handicapé apparaît a fortiori comme productrice sur le plan anthropologique et artistique. Le pouvoir de création de Frida, de Charlotte ou encore de Mélanie (se) joue de leur incomplétude même et leur sert de don de compensation. Ainsi la boiterie de La petite fille incomplète est-elle mise en corrélation, quoique de façon sous-jacente, avec la maîtrise de son art. Dans une situation particulière - l'incomplétude de son corps - cette fillette développe par là-même une aptitude pour la peinture. L'asymétrie implique le mouvement et le dynamisme - par opposition au statisme de l'équilibre - et en ce sens, cette particularité met le corps et la personne en position d'être inventif, créatif, en mouvement donc dans le monde artistique, notamment476. En somme « la petite fille incomplète » représente à la fois un personnage « malinitié » et « sur-initié »477. Elle joue ainsi le rôle d'un « nage liminaire »478 porteur d'ambivalences. En effet, son incomplétude entre en jeu / je avec sa propre initiation, ainsi qu'avec celle, plus latérale, des autres personnages qu'elle initie et fait passer dans son propre univers esthétique. Elle leur ouvre les yeux sur la perception des couleurs, c'est-à-dire du réel. Et pour sa part, grâce à ses amis, elle saisit l'opportunité de prendre et des couleurs et un nom. Elle revient en ces termes sur cette étape décisive : « Mon nom aussi était sans couleursVite, j'ai dû inventer : Mélanie m'a paru joli. » [22]. Quant à l'illustration finale, elle représente sa camarade de jeux qui, pinceau à la main, lui color(i)e les cheveux. 117 personnages se font les passeurs de la formation artistique des jeunes lecteurs, avec lesquels ils partagent symboliquement la même expérience culturelle. La trajectoire narrative et iconique de Mélanie se cristallise autour d'un voyage artistique. Sa naissance même résulte d'une création artistique puisqu'elle est le fruit d'un dessin inachevé par sa créatrice. Elle est donc littéralement un personnage de papier comme l'atteste, d'ailleurs, la feuille de dessin dans laquelle elle demeure définitivement enserrée. De même, elle évolue dans un monde onirique de dessin, qui est dévoilé par le foisonnement des outils de peinture, au coeur des illustrations. Les pinceaux, les tubes de peinture, la plume ou encore les crayons, démesurément plus grands que les personnages, investissent, parfois, une page entière, au point de constituer les seuls éléments d'un paysage totalement chimérique. Se dévoile alors « la perception singulière de la petite fille », laquelle est conduite par des « images en focalisation interne »479. Le paysage créé par Mélanie est avant tout incarné par des couleurs qui lui octroient ainsi sa valeur esthétique. D'où la présence du motif textuel et iconique du nuancier. La fillette n'a alors de cesse de mettre en mots le monde, au travers de ses couleurs : - le vert du printemps, le bleu des vacances, les rousseurs de l'automne - le blanc de la neige, le gris de l'hiver - le bleu du ciel, l'ombre pâle d'un nuage, le rose tendre d'un magnolia Ce sont les couleurs de la nature qui semblent agencer et aussi ritualiser le monde, les saisons. Mélanie saisit avec acuité les nuances des couleurs environnantes dont elle est dépourvue. Aussi, par son « savoir-voir », elle peut initi ses camarades à « l'aquarelle qu'est le monde » [La petite fille incomplète : 26]. « Je leur ai parlé [] des couleurs, du mauve acidulé des clématites, du vert de leurs yeux, des transparences et des ombres, des reflets, de tout ce qui me manquait », L'espace des doubles pages de l'album matérialise un espace ouvert et donc vierge : un espace des possibles de la création. L'illustration correspondante la représente s'envolant, à califourchon sur un tube de gouache, à travers un ciel d'aquarelle et au-dessus d'un parterre de pinceaux. [25] Ce motif pictural entre en résonance avec celui du « bateau-papier » [10] ainsi qu'avec celui très récurrent de l'envol. La 479 Boulaire (C.), « Les deux narrateurs à l'oeuvre dans l'album : tentatives théoriques », op.cit., p. 22. 118 petite fille n'a encore de cesse de se rêver et par là-même de se dessiner. D'autres images la montrent en train de peindre. Elle fait ainsi figure de personnage rêveur et rêvé, ou encore, tour à tour, peinte et peintre [21]. Si elle se constitue comme un être de papier et donc créée, elle (re-)crée, elle aussi, le monde qui l'entoure. L'un de ses tableaux s'enchâsse, alors dans le dessin qui la dépeint. Son initiation artistique apparaît, par ailleurs, comme un héritage latent de sa créatrice. À l'image de « la petite fille incomplète », l'inachèvement physique de l'héroïne de Robinsone est également pallié par la création artistique. Son acuité perceptive contrebalancerait alors son handicap, comme l'adolescente le justifie elle-même : En attendant j'occupais mon temps libre à dessiner. Mon sens de l'observation me semblait décuplé. Si vous perdez une de vos facultés, une autre vient souvent la compenser. Ainsi, les aveugles « voient » avec leur odorat et leur ouïe, extraordinairement développée. Les sourds « entendent » sur les lèvres, les muets « parlent » avec leurs mains. Si je ne pouvais plus me mouvoir comme avant, mes pensées, elles, faisaient le tour du monde. [164] Le personnage handicapé se trouve alors doté d'aptitudes remarquables qui le survalorisent. Ainsi, les dessins de Charlotte - soumis à une « norme technologique (un travail soigneux ou bâclé d'artiste) »480 - bénéficient du jugement mélioratif de son amie : « T'es pas mal douée! » [Robinsone : 26]. Le même compliment est adressé à la petite Yu'er dont un de ses proches, un grand peintre, souligne « le talent ». Quant à Chloé , la pianiste en fauteuil roulant de Playlist, elle est également jugée « douée » par un professeur de musique ainsi que par son amie [18]. De même, sa place au sein du groupe de musique est définie de façon très positive : « Chloé ; clavier et choeur, la tête pensante du groupe Playlist » [5]. La performance artistique du personnage handicapé signifie qu'il « possède des qualités de suppléance sensorielle qui lui donnent une force ou une habileté bien supérieures aux protagonistes valides. »481 Il est donc situé dans un entre-deux : d'un côté, au-deçà de la norme physique et de l'autre côté, au-delà d'une norme intellectuelle et culturelle.
| 8,156
|
30/tel.archives-ouvertes.fr-tel-00564324-document.txt_5
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,025
| 13,350
|
1.3 Compilation de toutes les courbes de dispersion du tenseur de corrélation
L'onde de Rayleigh est reconstruite sur quatre composantes du tenseur de corrélation en parties positives et négatives, et l'onde de Love sur seulement une composante. Pour chaque onde et chaque paire de stations, plusieurs courbes de dispersion (huit pour Rayleigh et deux pour Love) sont obtenues en utilisant la méthode décrite précédemment. La qualité des mesures de chaque courbe de dispersion est évaluée de façon individuelle en utilisant l'énergie du signal (paragraphe précédent). Nous avons également développé une analyse de la qualité des mesures en se basant sur l'ensemble des différentes composantes du tenseur de corrélations. Cette technique permet d'obtenir une seule courbe de dispersion pour chaque paire de stations. Dans cette courbe de dispersion, les temps de propagation à chaque fréquence sont associés à un indice de confiance.
1.3.1 Principe
Lorsque la corrélation a convergé vers la fonction de Green, les temps de propagation des parties causale et acausale sont égaux entre eux et égaux à celui de la fonction de Green. Ainsi, afin de sélectionner les mesures correctes, il suffit de comparer les valeurs des temps de propagation des parties causale et acausale. Pour cette analyse, nous commençons par conserver toutes les composantes du tenseur de corrélation sur lesquelles l'onde étudiée est théoriquement présente (quatre pour les ondes de Rayleigh et une pour les ondes de Love). A chaque fréquence, nous comparons les mesures causales et acausales sur toutes les composantes et nous sélectionnons les deux valeurs dont la différence est minimale et inférieure à 5 %. Pour chacun de ces deux temps de propagation, nous sélectionnons toutes les mesures de temps de propagation avec lesquelles la différence est inférieure à 10%. Nous obtenons deux s de mesures du temps de propagation du signal étudié. Parmi ces deux ensembles, nous sélectionnons celui qui contient le plus de mesures et nous calculons la moyenne du temps de parcours du signal. Cette moyenne est alors le temps de parcours du signal à la fréquence considérée. 1.3.2 Qualité des mesures
De plus, nous utilisons le nombre de mesures utilisées dans le calcul de la moyenne comme indicateur de sa qualité. Lorsque les corrélations convergent, les mesures sont toutes identiques ; alors que si peu de mesures sont identiques cela signifie que les corrélations ne convergent pas correctement vers les fonctions de Green. Nous évaluons la qualité de la mesure (Q) avec la formule : Q = NNMT otes avec NM es le nombre de mesures utilisées pour calculer la moyenne et NT ot le nombre total de courbes de dispersions indépendantes disponibles (huit pour Rayleigh et deux pour Love). Q est le pourcentage de mesures utilisées pour calculer la vitesse de propagation moyenne par rapport au nombre total de mesures disponibles. Pour les ondes de Rayleigh, ce coefficient est compris entre 0.25 lorsque seules deux mesures symétriques sont utilisées et 1 lorsque tous les signaux sont utilisés. Dans le cas des ondes de Love, ce coefficient est obligatoirement égal à 1 car les mesures doivent être symétriques pour être conservées (condition nécessaire). Sur la figure 1.8(a), les courbes de dispersion mesurées pour toutes les composantes causales et acausales du tenseur de corrélation pour la paire de stations BEL-BALB (courbes bleues) et la courbe de dispersion obtenue après le test sur les composantes (courbe rouge). La figure 1.8(b) représente la variation du coefficient de confiance mesuré en fonction de la période. Aux extré-
CHAPITRE 1. CALCUL DES COURBES DE DISPERSION F
IGURE 1.8 : (a) : comparaison entre les courbes de dispersion des ondes de Rayleigh mesurées après sélection sur le critère de l'énergie (étoiles bleues) et la courbe de dispersion obtenue après le test de symétrie (carrés rouges) en utilisant toutes les composantes du tenseur de corrélations pour la paire BEL-BALB. (b) :
évolution du coefficient de confiance avec la fréquence pour la courbe de dispersion obtenue mités de la bande passante, le coefficient de confiance diminue. Dans la gamme de fréquences [0.04; 0.12] Hz, la courbe de dispersion moyenne est cohérente avec toutes les courbes mesurées et le coefficient de confiance est égal à 1. Cette valeur du coefficient prouve que toutes les composantes sont utilisées pour calculer la courbe de dispersion moyenne. A basses fréquences (0.03-0.04 Hz), bien que trois composantes semblent avoir des courbes de dispersion proches, aucun mesure n'est conservée. 1.4.2 Comparaison entre les courbes de dispersion obtenues classiquement et avec notre méthode
Pour tester l'intérêt de l'utilisation de toutes les composantes du tenseur de corrélations ainsi du test de symétrie, nous comparons les courbes de dispersion obtenues avec les deux techniques. Cette comparaison sera d'abord réalisée pour la paire BEL-BALB puis nous ferons une comparaison d'ensemble avec les courbes de dispersion de toutes les paires de stations disponibles. Pour une paire de stations : BEL-BALB Pour la paire de stations BEL-BALB, les courbes de dispersion mesurées avec les deux méthodes sont presque superposables. Les bandes passantes dans lesquelles les courbes de dispersion sont identiques, [0.035; 0.15] Hz, sont également proches (figure 1.9). Sur cet exemple, l'élimination des mesures dont l'énergie des mesures est inférieur à 20% permet de compenser le filtrage sur l'énergie à 10%, le contrôle de la symétrie et l'utilisation de quatre composantes du tenseur de corrélations. Cela prouve que le test de symétrie et l'utilisation
156 CHAPITRE 1. CALCUL DES COURBES DE DISPERSION
F IGURE 1.9 : Comparaison de la courbe de dispersion des ondes de Rayleigh mesurée sur la composante ZZ symétrisée (étoiles noires) et en testant la symétrie de toutes les composantes du tenseur (carrés rouges) de plusieurs composantes permet d'éliminer les mesures qui ne correspondent pas à l'onde étudiée (faibles énergies). Cette observation est faite pour une paire de stations qui semble converger correctement vers la fonction de Green (coefficient de qualité égal à 1). Cependant, toutes les corrélations ne convergent pas de la même manière et leurs qualités dépendent de la durée de bruit disponible, de la position des stations, etc
Dans le paragraphe suivant nous ferons donc une comparaison globale des cour de dispersion des ondes de Rayleigh mesurées avec les deux techniques. Etude de l'ensemble des courbes de dispersion
Nous sélectionnons les paires de stations pour lesquelles des courbes de dispersion sont mesurées avec les deux méthodes. A chaque fréquence nous calculons la moyenne et l'écart type de la valeur absolue des différences de vitesse de propagation mesurées avec les deux techniques (figure 1.10). Pour toute la bande passante, l'écart moyen de vitesse est inférieur à 0.13 km.s−1 ce qui est faible. L'écart type est constant et faible au centre de la bande passante (environ 10−2 km.s−1 ), puis il augmente rapidement aux extrémités de la bande passante. Cette augmentation de l'écart type est liée à la diminution du nombre de paires de stations pour lesquelles des mesures ont été possibles (avec l'une ou l'autre des méthodes) mais aussi à l'augmentation des erreurs de mesures. En effet, aux extrémités de la bande passante, l'énergie des signaux est plus faible ce qui signifie que les mesures sont faites sur des corrélations qui n'ont pas convergé correctement.
1.4. COMPARAISON AVEC LA MÉTHODE CLASSIQUE 157
F IGURE 1.10 : Moyenne des différences des vitesses de propagation pour les mesures faites en symétrisant les corrélations ou en faisant le test de symétrie
Globalement le nombre de mesures disponibles lorsque l'on teste la symétrie des corrélations est inférieur au nombre disponible avec les techniques classiques (figure 1.11). Mais, dans les deux cas, le nombre de temps de propagation disponibles diminue sur les extrémités de la bande passante (figure 1.11). A longue périodes, la diminution est identique pour les deux méthodes : moins 2000 paires entre 25 s et 40 s. Ceci suggère que l'énergie des sources de bruit diminue de la même manière que la répartition des sources devient plus hétérogène. A l'inverse, à courtes péri , la diminution du nombre de mesures est plus rapide pour la méthode "classique" qu'avec le test de symétrie. Ceci suggère que l'énergie des sources diminue plus rapidement que ne se produit l'hétérogénéité des sources. Ces diminutions sont à mettre en relation avec la diminution du critère de qualité aux extrémités de la bande passante observée pour la courbe de dispersion de la paire de stations BEL-BALB (figure 1.8(b)). Conclusion sur l'utilisation de plusieurs composantes et la mesure de symétrie
Par rapport aux techniques "classiques" qui utilisent la composante ZZ symétrisée, notre technique est basée sur la théorie de la convergence des corrélations de bruit vers la fonction de Green symétrisée et utilise l'ensemble des informations du tenseur de corrélations. Cependant, les mesures de courbes de dispersion réalisées sur les ondes de Rayleigh avec les deux techniques donnent des résultats semblables aussi bien pour une paire de stations que pour l'ensemble des données. Cette stabilité de la mesure sur des corrélations symétrisées prouve que la reconstruction des fonctions de Green par les corrélations est très robuste. Seule l'existence d'une source stable dans le temps et dans l'espace provoque une dégradation des mesures de vitesses qui peut affecter les corrélations symétrisées. Dans cette situation, notre méthode permet d'éviter les
CHAPITRE 1. CALCUL DES COURBES DE DISPERSION F
IGURE 1.11 : Nombre de corrélations disponible en fonction de la période pour la méthode de mesure des courbes de dispersion "classique" et la méthode avec test de symétrie et analyse des différentes composantes du tenseur de corrélations reurs de mesures liées à la mesure de la vitesse apparente. Cependant,
dans le cas de jeux de données de bruit de longue durée (supérieure à un an), cette situation est peu probable. Par rapport à la technique "classique", notre méthode apporte une information sur la qualité de la mesure. Cette information sur la qualité est utilisée lors de la régionalisation des vitesses de groupe afin de reconstruire l'image de la croûte avec la meilleure précision possible (voir partie IV chapitre 2). D'autre part, ce test permet de vérifier que le temps de propagation mesuré correspond au temps de la fonction de Green. Avec les techniques "classiques", si la source de bruit est stable alors les mesures des variations spatiales de la vitesse peuvent être correctes mais les valeurs absolues des vitesses peuvent être fausses. 1.5 Bilan
Les corrélations de bruit permettent de reconstruire facilement des ondes de surface (Love et Rayleigh) pour toutes les composantes du tenseur de corrélation si les moyennes sont faites pour des durées de bruit assez longues. Les positions des sources de bruit à la surface et une étude de leurs contributions à la convergence des fonctions de corrélations vers les fonctions de Green explique que les ondes de volumes ne sont pas facilement observables sur les corrélations d'enregistrements de bruit faits en surface. Les signaux reconstruits sont traités comme des signaux classiques, et les courbes de dispersion des ondes de surface sont mesurées par des méthodes classiques (AFM). Cependant, la théorie sur les corrélations de bruit prouve qu'elles doivent être paires et que les ondes étudiées 1.5. peuvent être présentes sur différentes composantes. Nous avons développé un test de contrôle de qualité des mesures de courbes de dispersion qui utilise les différentes composantes du tenseur de corrélation. Pour garantir de bonnes mesures de dispersion à partir des corrélations, de bruit, il faut avoir vérifié la répartition des sources de bruit autour du réseau. Si celle-ci remplit le critère d'homogénéité dans la répartition azimutale nécessaire à la convergence de corrélations vers la fonction de Green, alors la méthode la plus simple (utilisation de la composante ZZ seule et symétrisation dans le temps) suffit. Cependant, seule l'analyse de la position des sources peut fournir une information sur la qualité de cette mesure et prouver que les vitesses mesurées ne sont pas des vitesses apparentes. Si par contre, le bruit est dominé par une source dont la position est stable, alors le risque est grand de mesurer la vitesse apparente des ondes émises par cette source plutôt que la vitesse de propagation entre les deux stations. Dans ce , notre test de symétrie permet de supprimer ces données fausses. Cependant, avec les données de SIMBAAD, la comparaison des mesures que nous réalisons avec les mesures faites par une méthode "classique" avec symétrisation de la seule composante ZZ montre que la technique "classique" est robuste. Cela prouve que le calcul des corrélations de bruit pour reconstruire les ondes de surface est une méthode très stable. Nous pouvons noter que notre technique élimine beaucoup plus de données que la technique classique de test sur l'énergie des signaux ce qui peut dégrader la qualité de la régionalisation des vitesses de groupe. 2.1 Principe de la régionalisation
Dans ce paragraphe, nous noterons la transposée de la matrice A par : t A.
2.1.1 La régionalisation des vitesses de groupe : une inversion simple
Pour expliquer leurs observations, les scientifiques développent des modèles physiques. Ces modèles dépendent de paramètres qui varient selon les observations faites (espace, temps, ). L'objectif d'une inversion est de trouver les paramètres du modèle qui permettent d'expliquer les observations. La régionalisation est une inversion dont l'objectif est d'expliquer tous les temps de propagation mesurés en considérant que la lenteur des ondes varie dans l'espace. Pour cela, le modèle que nous considérons est linéaire et défini par la relation :, T = L(x)dx (2.1) D 161 162 1 avec L = la lenteur, D le trajet considéré et T le temps de propagation mesuré. Pour cette c inversion, nous considérons que le trajet est indépendant des variations spatiales de la lenteur ce qui nous permet d'avoir un modèle linéaire. Les trajets seront donc des rais linéaires entre les stations. En supposant que les variations latérales de la vitesse ne sont pas trop importantes, parce que nous travaillons avec des distances de propagation courtes, cette approximation n'implique pas de grandes erreurs dans l'inversion. 2.1.2 Théorie générale de l'inversion
Pour tout inversion, nous avons deux espaces représentés par des matrices, l'espace des observations (y) et l'espace des modèles (m). Comme notre modèle physique est linéaire (voir l'équation 2.1), il existe donc une application linéaire qui permet de passer de l'espace des paramètres à l'espace des données. Nous appellerons H la matrice de cette application linéaire ce qui nous permet alors d'écrire la relation : y = Hm. Dans l'espace des données, nous définissons y0 comme la matrice des observations réalisées. De même, nous définissons : – le modèle vrai que nous cherchons : mv – le modèle inverse que nous reconstruisons : mI – le modèle initial que nous utilisons : m0 L'objectif de l'inversion est de trouver mI = mv à partir des observations y0. Pour cela, nous utilisons une inversion Bayesienne. L'inversion Bayesienne consiste à construire un modèle inverse (mI ) en perturbant un modèle initial (m0 ) en fonction de l'écart entre les données observées et les données synthétiques : mI = m0 + K(y0 − Hm0 ) (2.2) où K est la matrice qui perturbe le modèle initial en fonction de l'erreur de reconstruction des données. Soit Em = mI − mv l'erreur entre le modèle inversé et le modèle vrai. Pour minimiser cet écart, nous devons optimiser l'inversion en déterminant K. Pour cette optimisation, nous avons choisi d'utiliser la méthode des moindres carrés en cherchant à minimiser la somme des carrés des écarts entre le modèle vrai et le modèle inverse (trace du produit Em t Em ). Nous pouvons remarquer que cette erreur entre le modèle vrai et modèle inversé prend en compte les erreurs liées à l'approximation des rais que nous avons faites (voir paragraphe 2.1.1). Ceci signifie que nous obtiendrons bien le meilleur modèle sous cette hypothèse de propagation linéaire.
2.1.3 Optimisation de l'inversion
A l'aide des expressions de mI et mv, nous obtenons : Em = Em0 − K (Ey0 + HEm0 ) avec Ey0 = y0 − Hmv les erreurs sur les observations et Em0 = m0 − mv les erreurs du modèle initial par rapport au modèle vrai. Posons f (K) = tr(Em t Em ), où tr(Em t Em ) est la trace de Em t Em. Après développement nous obtenons :
7 8 f (K) = tr Cm0 − Cm0 t H t K − KHCm0 + K(Cy0 + HCm0 t H) t K 7 8 7 8 7 8 − tr Em0 t Ey0 t K − tr KEy0 t Em0 + tr KEy0 t Em0 t H t K 7 8 + tr KHEm0 t Ey0 t K (2.3) avec Cm0 = Em0 t Em0 la matrice
de covariance du m
odèle
et
Cy
0 =
Ey
0
t Ey
0 celle des observations. On suppose que les erreurs du modèle initial et des données sont indépendantes donc tr [Ey0 t Em0 ] = tr [Em0 t Ey0 ] = 0. Pour déterminer K, nous minimisons la fonction f en fonction de K, en utilisant sa différentielle. La linéarité de la trace et la propriété tr( t A) = tr(A) pour toute matrice A, nous permettent d'écrire la différentielle : : 9
dfK (L) = tr 2[−Cm0 t H + K(Cy0 + HCm0 t H)] t L (2.4) K = Cm0 t H(Cy0 + HCm0 t H)−1 (2.5)
En utilisant la définition du produit scalaire sur les matrices nous obtenons f # (K) la dérivée de f (K) : f # (K) = 2[−Cm0 t H + K(Cy0 + HCm0 t H)]. f # (K) = 0 donne alors :
2.1.4 Description des matrices utilisées pour l'inversion linéaire des temps de propagation
Trois matrices sont conditionnées par l'étude réalisée : le vecteur qui contient les données, le vecteur qui décrit les modèles et la matrice de passage de l'espace des données à l'espace des modèles. Vecteur de données (y0 ) : Nobs est le nombre d'observations réalisées. y0 est alors un vecteur colonne avec Nobs lignes où chacune est le temps de propagation de l'onde étudiée pour une paire de stations à une fréquence donnée. 164 Vecteurs des modèles (m0, mv, ) : le milieu de propagation est divisé en Ncel cellules carrées. Chaque vecteur modèle est un vecteur colonne de Ncel lignes et chaque ligne est la lenteur dans une cellule. Nous considérons que la lenteur est constante dans chaque cellule et l'ensemble de notre zone d'étude est divisée en 48000 cellules carrées de 30 km de côté. 2.1.5 Modèle inverse
En remplaçant la matrice K déterminée par l'équation 2.5 dans la relation 2.2 nous obtenons : mI = m0 + Cm0 t H(Cy0 + HCm0 t H)−1 (y0 − Hm0 ) (2.6) D'autre part, Tarantola and Valette (1982) ont montré que le résultat d'une inversion linéaire avec une optimisation basée sur les moindres carrés est donnée par l'équation : p̂ = p0 + (GT * Cd−1 * G + Cp−1 )−1 * GT * Cd−1 * (d0 − G * p0 ) 0 p0 0 d0 0 d0 (2.7) avec G la matrice des dérivées partielles en fonction de p, Cp0p0 la matrice de covariance du modèle a priori, Cd0 d0 la matrice de covariance des données a priori, d0 la matrice des données, p0 la matrice du modèle initial et p̂ le modèle inverse. Le développement des équations 2.6 et 2.7 démontre que ces deux équations sont équivalentes avec G = H, Cd0 d0 = Cy0, Cp0 p0 = Cm0, d0 = y0 et p0 = m0. Bien que notre démonstration soit différente de celle de Tarantola and Valette (1982), les équations qui permettent de calculer le modèle inverse sont identiques. En utilisant cette inversion Bayesienne, le modèle obtenu est celui qui explique le mieux les données tout en considérant que des erreurs sont possibles dans les observations. Les liens entre les différentes observations sont définis par la matrice de covariance des données. Cette inversion permet également de prendre en compte les interdépendances entre paramètres du modèle et la relation avec le modèle initial choisi (covariance du modèle). Par conséquent, le choix des deux matrices Cy0 et Cm0 est très important car il conditionne le modèle final obtenu. 2.1.6 Poids relatifs des données et du modèle initial dans l'inversion
Le poids relatif des deux matrices de covariance (Cm0 et Cy0 ) définit l'influence du modèle initial ou des données sur l'inversion. Pour évaluer le poids de ces matrices, nous les avons normalisées. Pour la matrice de covariance du modèle, le coefficient ACm détermine l'écart possible
2.2. DÉTERMINATION DES PARAMÈTRES DE L'INVERSION 165 du modèle final par rapport
au m
odèle initial
en pourcentage de la vitesse initiale. Pour la matrice de covariance des données, le coefficient ACy définit l'écart en secondes entre les données calculées pour le modèle inverse et les observations. Le choix de ces deux coefficients définit la manière dont l'inversion permet la reconstruction des observations tout en contrôlant l'écart du modèle inverse par rapport au modèle initial. Remarque : Etudions plusieurs cas avec des poids relatifs différents : ACy faible par rapport à ACm : après l'inversion, l'écart aux données est faible et le modèle final peut s'éloigner énormément du modèle initial. Dans ce cas, les modèles obtenus sont très irréguliers et les observations sont très bien expliquées. ACy fort par rapport à ACm : L'écart aux données est fort et le modèle final ne s'éloigne pas du modèle initial. Dans ce cas, les modèles obtenus ont de faibles variations mais les données sont mal expliquées. Dans le paragraphe suivant nous présenterons la méthode que nous avons utilisée pour déterminer ces deux coefficients. Ces coefficients de normalisation permettent d'évaluer les poids relatifs des données et du modèle de manière globale. Les valeurs utilisées dans les matrices de covariance déterminent seulement les relations entre les paramètres ou entre les données. Il est beaucoup plus simple de déterminer physiquement les qualités relatives entre deux observations plutôt que leur qualité de manière absolue. La détermination de ces matrices est très importante car elles définissent la qualité et l'interdépendance entre les observations pour la matrice Cy0 et les relations entre les paramètres du modèle pour Cm0. Le dernier paramètre de l'inversion est le modèle initial. Dans le paragraphe suivant, nous présenterons la démarche suivie et les valeurs que nous utilisons.
2.2 Détermination des paramètres de l'inversion 2.2.1 Modèle initial : vitesse de propagation moyenne
Selon la théorie de l'inversion Bayesienne, le modèle inverse est obtenu en perturbant un modèle initial. Pour que le modèle inverse calculé soit proche de la réalité, les perturbations appliquées au modèle initial doivent être faibles. C'est pourquoi nous avons choisi un modèle initial homogène dont la lenteur est la lenteur moyenne pour toutes les observations réalisées à la fréquence choisie. 166
2.2.2 Les matrices de covariance
Les matrices de covariance choisies influencent fortement le modèle inverse obtenu. Grâce aux coefficients de normalisation, les valeurs utilisées sont normalisées à 1. Les valeurs de chaque élément de ces matrices définissent donc les relations entre les mesures et entre les paramètres du modèle. Description des matrices de covariance
La matrice de covariance du modèle (Cm0 ) décrit l'interdépendance entre les paramètres du modèle. Cette matrice est donc carrée de dimension Ncel. La matrice de modèle (m) contient les valeurs de la lenteur dans chaque cellule du modèle. Nous avons considéré que la vitesse ne varie pas brutalement spatialement et pour cela, nous avons lié les cellules du modèle en fonction de la distance qui les sépare. Dans la matrice de covariance du modèle, nous avons utilisé une covariance qui suit une fonction gaussienne qui dépend de la distance entre les cellules. Cela signifie que lorsque deux cellules sont éloignées, leurs vitesses peuvent varier indépendamment. Les termes diagonaux de la matrice de covariance des données (Cy0 ) décrivent la qualité des données utilisées et les autres termes l'interdépendance entre les observations. Pour cette inversion, nous considérons que toutes les mesures sont indépendantes et que la qualité de la mesure est quantifiée par l'inverse normalisé du coefficient de confiance mesuré lors du test de symétrie (Q) (voir partie IV, chapitre 1). Cela signifie que seuls les termes diagonaux sont non nuls, et lorsque ceux-ci sont proches de 1, cela signifie que les mesures sont fausses et donc l'inversion ne cherchera pas à reconstruire la valeur correspondante. Facteurs de normalisation des matrices de covariance
Les deux matrices de covariance sont normalisées à 1, et nous avons défini des coefficients de normalisation (ACy et ACm ) qui permettent de quantifier le poids relatif de ces deux matrices. Ceci permet soit de favoriser la reconstruction des données au détriment du lissage du modèle soit de conserver une fort lissage spatial en limitant la reconstruction des données. Pour choisir ces deux coefficients, nous avons calculé l'écart aux données en fonction de la rugosité du modèle pour différentes valeurs des coefficients ce qui nous donne une courbe de type courbe en L (figure 2.1). En utilisant cette courbe nous déterminons la paire de coefficients (carré rouge) qui explique correctement les données tout en limitant la rugosité du modèle parmi un ensemble de possibilités (étoiles bleues) (voir le livre de Nolet (2008) pour la discussion sur les courbes en L).
2.3. PROPRIÉTÉS DE L'ENSEMBLE DES DONNÉES À INVERSER
167 F IGURE 2.1 : Evolution de l'écart aux données et de la rugosité du modèle inverse pour différents coefficients de normalisation. Le carré rouge correspond aux valeurs utilisées pour le reste de l'étude
Les coefficients obtenus sont de 5 % de variation de la lenteur du modèle initial et 5 s d'écart de temps par rapport aux temps de propagation mesurés. En plus des paramètres de l'inversion, la qualité d'une inversion est définie par les propriétés du jeu de données (nombre de mesures, positions, ) qui seront décrites dans le paragraphe suivant. 2.3 Propriétés de l'ensemble des données à inverser 2.3.1 Introduction
La qualité de la régionalisation de la vitesse de propagation d'une onde dépend de la manière dont les mesures échantillonnent le milieu. Une inversion de bonne qualité est obtenue lorsque : – beaucoup de données sont disponibles – les trajets utilisés se croisent (diversité dans la distribution des azimuts) – les longueurs des trajets (distances inter-stations) sont distribuées dans une gamme large. Les courtes distances donnent des informations à petite échelle alors que les longues distances apportent des informations à grandes longueurs d'onde. – le nombre de trajets traversant chaque cellule du modèle est homogène. Dans ce paragraphe, nous présenterons successivement le nombre de corrélations disponibles, la distribution des distances inter-stations, la distribution des azimuts des paires de stations et enfin la qualité des mesures.
168 2.3.2 Nombre de courbes de dispersion calculées F IGURE 2.2 : Variation avec la fréquence du nombre de mesures de temps de propagation disponibles après le test de symétrie et l'utilisation de plusieurs composantes du tenseur de corrélations (voir partie IV chapitre 1). La courbe rouge correspond aux ondes de Rayleigh et la courbe bleue aux ondes de Love. Simplement, la qualité d'une inversion augmente avec le nombre de mesures utilisées. Le nombre de mesures de temps de propagation est au maximum d'environ 4900 pour les ondes de Rayleigh autour de 17 s. Le nombre maximum de mesures pour l'onde de Love est de 2200 à 13 s de période. Le nombre de mesures disponibles diminue rapidement lorsque la période diminue passant à 900 et 400 mesures disponibles à 5 s pour respectivement les ondes de Rayleigh et les ondes de Love. Lorsque la période augmente, le nombre de mesures disponibles diminue brutalement jusqu'à 25 s puis très progressivement jusqu'à 55 s. La résolution du modèle de vitesse dépend non seulement du nombre de trajets utilisés, mais également de la répartition spatiale de ces trajets, nous avons choisi de calculer les inversions jusqu'à 55 s de période. D'autre part, la figure 2.2 suggère que les inversions seront de très bonne qualité entre 7 et 25 s, puis qu'elles se dégraderont en bordure de bande passante. Cette observation est cohérente avec la bande passante du bruit et l'observation de la stabilité des courbes de dispersion mesurées (voir partie IV chapitre 1). 2.3.3 Distribution azimutale des mesures
Dans une inversion, la résolution et la qualité des modèles obtenus dépendent de la manière dont les rais utilisés se croisent. Pour l'ensemble des corrélations cette information est donnée par la distribution des azimuts des paires de stations. Nous avons choisi de représenter la distribution
2.3. PROPRIÉTÉS DE L'ENSEMBLE DES DONNÉES À INVERSER 169 F
IGURE 2.3 : Distribution des azimuts pour les paires de stations dont les distances sont inférieures à 800 km des azimuts entre 0 et 180 ̊pour les paires dont la distance est inférieure à 800 km (figure 2.3).
L'utilisation d'un critère de symétrie par rapport au temps t = 0 de la corrélation rend les azimuts équivalents à 180 ̊près. Ce choix de sélectionner les distances est basé sur la forme globale du réseau, la distribution des distances des paires de stations et les propriétés des corrélations. En effet, le réseau est rectangulaire, donc les grandes distances inter-stations sont orientées EstOuest. Or, les corrélations de bruit convergent moins rapidement lorsque les distances interstations sont grandes, et les mesures de temps seront donc affectées d'un poids plus faible selon le critère de symétrie. Nous avons choisi de ne pas prendre en compte les couples dont la distance inter-station est supérieure à 800 km pour ne pas ajouter des mesures (inutiles) de qualité pauvre. D'autre part, nous avons choisi 800 km car environ 80% des paires de stations disponibles ont des distances inférieures. Cette distribution des azimuts des paires de stations montre un pic à 90 ̊N. Ce pic correspond à l'extension Est-Ouest du réseau (voir partie II) qui s'observe donc également pour les courtes distances inter-stations. Cette répartition hétérogène des azimuts peut diminuer la résolution du modèle final obtenu. Cependant, nous avons isi de ne pas tenter de remédier à ce problème (par exemple en pondérant les mesures en fonction de l'azimut) car la qualité des corrélations dépend aussi des positions des sources de bruit et donc de l'azimut des paires de stations. Or, nous avons choisi de pondérer dans l'inversion les temps de propagation en fonction de la qualité de la mesure ce qui revient à appliquer une pondération avec l'azimut. D'autre part, le grand nombre de paires de stations disponibles permet de compenser en partie l'effet de l'hétérogénéité des azimuts. F IGURE 2.4 : Evolution de la qualité des mesures de temps de propagation en fonction de la période
Entre 7 et 40 s de période nos mesures sont de bonne qualité avec une covariance supérieure à 0.65. La qualité des mesures augmente rapidement aux courtes périodes pour atteindre 0.85 entre 15 et 20 s de période (sept mesures sur huit) puis elle diminue progressivement jusqu'à 55 s où elle est égale à 0.55. Cette diminution est cohérente avec la diminution de l'énergie des signaux reconstruits par corrélations de bruit et elle correspond à une diminution de la qualité de la reconstruction de la fonction de Green à courtes et longues périodes (peu de sources de bruit, voir partie III).
2.4. TEST DE RÉSOLUTION 171 2.4 Tests de résolution des cartes de vitesse de groupe en utilisant des modèles synthétiques 2.4.1 Principe
Nous avons utilisé des modèles de vitesse de groupe synthétiques pour calculer des temps de parcours synthétiques que nous avons ensuite inversés en utilisant la même technique que celle utilisée sur les données réelles. Pour chaque période, l'ensemble des données synthétiques est créé pour les couples de stations disponibles dans les données réelles. Il est important de noter que le maillage utilisé pour calculer les données synthétiques est différent de celui utilisé dans l'inversion (tailles et positions des cellules).
2.4.2 Modèles synthétiques initiaux
Les modèles synthétiques sont des damiers à anomalies carrées de tailles 100 et 200 km avec des vitesses qui varient de manière continue entre 3 km.s−1 et 3.5 km.s−1 (figure 2.5). F IGURE 2.5 : Modèles de vitesse synthétiques utilisés pour calculer les temps de propagation synthétiques avec des anomalies de 100 km et 200 km
L'utilisation de modèles en damier nous permet d'évaluer les variations spatiales de la résolution. D'autre part, en faisant ce traitement pour toutes les périodes, nous avons une information sur les variations de la résolution en fonction de la période. Nous avons fait ces tests de résolution pour les ondes de Rayleigh et les ondes de Love à toutes les périodes.
172 2.4.3 Anomalies de grande taille : 200 km Ondes de Rayleigh
A toutes les périodes, les données synthétiques des temps de propagation des ondes de Rayleigh générées avec des anomalies de 200 km permettent de reconstruire correctement les positions et les amplitudes des anomalies de vitesse. Les modèles obtenus à 10 et 30 s de période sont présentés sur la figure 2.6.
F IGURE 2.6 : Modèles inverses obtenus pour des anomalies de 200 km en utilisant les trajets disponibles pour les périodes 10 s (a) et 30 s (b) des ondes de Rayleigh Sur
l'ensemble
du réseau et
à
tout
es les
périodes
, les h
été
rogénéités de
vitesse de dimension supérieure
à
200 km seront bien reconstruites avec les ondes de Rayleigh.
Ondes de Love
Avec le même modèle synthétique, en utilisant les trajets disponibles pour les ondes de Love à chaque période, nous observons également sur la figure 2.7 que les positions et les amplitudes des anomalies de 200 km sont retrouvées. Comme pour les ondes de Rayleigh, la résolution spatiale est donc meilleure que 200 km. 2.4.4 Anomalies de taille 100 km
Ondes de Rayleigh A 10 s de période (figure 2.8(a)), les positions des anomalies de vitesse sont retrouvées en Anatolie Occidentale (25 à 31 ̊E) et leurs amplitudes sont raisonnablement peu atténuées car on mesure des anomalies de ±7% alors que les valeurs initiales étaient de ±8.4%. Dans la 2.4.
TEST DE RÉSOLUTION
173 F IGURE 2.7 : Modèles inverses obtenus pour des anomalies de 200 km en utilisant les trajets disponibles pour les périodes 10 s (a) et 30 s (b) des ondes de Love F IGURE 2.8 : Modèles inverses obtenus pour des anomalies de 100 km en utilisant les trajets disponibles pour les périodes 10
s
(a) et
30 s (b) des ondes de Rayleigh périphérie de notre zone d'étude, les anomalies sont déformées ou disparaissent. Ainsi, aucune anomalie ne peut être observée en Grèce continentale dans le sud de la Mer Egée et la résolution diminue fortement à l'est de 33 ̊de longitude. En analysant les modèles obtenus pour les périodes comprises entre 10 et 25 s, nous observons une résolution similaire à celle obtenue à 10 s. Ainsi, dans cette gamme de période, nous pouvons considérer que la résolution est constante et proche de 100 km entre 25 et 31 ̊E. Entre 25 s et 30 s de période, la résolution diminue rapidement et la taille de la région bien résolue diminue. Pour les périodes supérieures ou égales à 30 s, la résolution de l'inversion diminue énormément et les anomalies de 100 km ne sont plus reconstruites (figure 2.8(b)). L'inversion des temps de propagation des ondes de Rayleigh a donc une résolution proche de 174 100 km en Anatolie occidentale pour la bande passante comprise entre 10 et 30 s. A l'extérieur de cette zone et de cette bande passante, la résolution devient proche de 150 km (meilleure que 200 km, voir paragraphe précédent). Cette diminution de la résolution est cohérente avec la diminution de la qualité des mesures, mais également avec le nombre de corrélations disponibles. 2.4.5 Intérêt de la covariance pour des données bruitées
Sur les temps de propagation synthétiques calculés avec des anomalies de 100 km, nous ajoutons une erreur aléatoire comprise entre 0 et 10 % du temps. Ces données bruitées sont inversées pour reconstruire le modèle initial en utilisant trois matrices différentes de covariance des données : 1. la covariance attribuée à chaque mesure dépend de l'erreur de temps appliquée (figure 2.10(a)) 2. les covariances utilisées dans le premier cas sont réattribuées aléatoirement aux mesures (figure 2.10(b)) 3. la covariance est identique pour toutes les mesures (figure 2.10(c)) Le premier cas correspond à ce que nous utilisons avec les données réelles car nous pondérons chaque mesure en fonction de sa qualité. Le second cas a pour objectif de nous permettre d'observer l'effet de l'utilisation de covariances inadaptées à la qualité des données. Pour ce test, nous avons utilisé les trajets disponibles pour les ondes de Rayleigh à 25 s de période. Enfin, le dernier cas correspond aux inversions qui sont "classiquement" faites pour les temps de propagation mesurés à partir des corrélations de bruit (par exemple Brenguier et al. (2007); Stehly et al. (2009)). Lorsque la pondération dépend de l'erreur attribuée (figure 2.10(a)), alors les positions des anomalies du modèle synthétique et leurs intensités sont retrouvées en Anatolie occidentale mais pas en périphérie du réseau, comme dans la figure 2.8(a) obtenue pour l'inversion de données non-bruitées. Lorsque la covariance n'est pas directement liée à l'erreur sur la mesure (figure 2.10(b)), les anomalies reconstruites sont très différentes de celles du modèle synthétique, non seulement par leurs formes, mais aussi par leurs amplitudes. Lor la pondération est identique pour toutes les observations (figure 2.10(c)), la déformation des anomalies reste proche de celle obtenue lorsque les données sont pondérées aléatoirement (figure 2.10(b)). Cependant les amplitudes des anomalies deviennent plus grandes et s'éloignent plus du modèle synthétique. En conclusion, pour obtenir le meilleur modèle il est important de tenir compte de la qualité des données car cela influence la qualité du modèle retrouvé. Cependant, cette analyse montre également que la covariance sur les données doit être correctement évaluée car, dans le cas
CHAPITRE 2. contraire, son utilisation peut diminuer la qualité du modèle obtenu. Donc, l'utilisation d'une pondération correcte par rapport aux erreurs sur chaque mesure permet d'améliorer la résolution du modèle par rapport aux modèles obtenus avec des pondérations homogènes. En utilisant le critère sur la convergence du tenseur des corrélations pour chaque mesure, nous devrions donc obtenir des modèles de bonne qualité. Dans le paragraphe suivant nous présenterons les modèles initiaux des inversions des vitesse de groupe des ondes de Rayleigh et des ondes de Love, puis nous évaluerons la qualité des modèles inverses obtenus.
2.5 Modèle initial et qualité des cartes de vitesse de groupe obtenues 2.5.1 Modèles initiaux
Une inversion Bayesienne perturbe un modèle initial pour trouver le modèle final qui explique au mieux les données. Nous avons choisi d'utiliser, pour chaque période, un modèle initial homogène dont la vitesse est égale à la moyenne des vitesses mesurées pour tous les trajets à la 2.5. MODÈLE INITIAL ET QUALITÉ 177 période considérée. Les valeurs de vitesse moyenne varient en fonction de la période et nous donnent donc les courbes de dispersion moyennes des ondes de Love et des ondes de Rayleigh (figure 2.11). F IGURE 2.11 : Vitesses moyennes mesurées pour les ondes de Love (carrés) et les ondes de Rayleigh (étoiles)
Entre 5 et 20 s de période, la vitesse de ondes de Rayleigh varie peu autour de 2.7 km.s−1. Pour les périodes supérieures à 20 s, cette vitesse augmente rapidement pour atteindre 3.4 km.s−1 à 35 s de période. La vitesse des ondes de Love est supérieure à la vitesse des ondes de Rayleigh mais son évolution est différente. Ces deux différences sont normales et peuvent s'expliquer par la nature de chaque onde (voir partie I). La vitesse de groupe des ondes de Love augmente progressivement entre 5 et 30 s de période puis se stabilise à 3.5 km.s−1. L'augmentation rapide de la vitesse de groupe des ondes de Rayleigh dans la gamme de période 20 -35 s est liée à la présence d'une phase d'Airy dont la vitesse est lente à 18 s de période. Cette phase est associée à la propagation des ondes dans un guide d'onde continu. Elle est donc souvent associée à un fort contraste de la vitesse des ondes S en profondeur (interface). Compte tenu de la période à laquelle cette phase est observée et de la valeur de la vitesse de groupe mesurée, cette phase d'Airy est liée à la discontinuité entre la croûte et le manteau lithosphérique qui est appelée : discontinuité de Mohorovicic ou Moho et se trouve donc en moyenne à 30 km de profondeur dans cette région. 2.5.2 Qualité de l'inversion : mesure du misfit
Pour évaluer l'apport d'un modèle hétérogène par rapport à un modèle homogène simple sur l'explication des données, nous avons calculé l'écart aux données (misfit) avec les modèles 178 initiaux homogènes à toutes les fréquences et l'amélioration de cet écart conséquence de l'inversion. 2!
DT
2 Le misfit est donné par la formule : Σ = ( NN N ) où DTN est l'écart entre les temps de propagation mesurés et calculés dans le modèle obtenu par inversion pour le couple N. La figure 2.12(a) montre que le misfit des modèles initiaux homogènes est faible, de moins de 10 s entre 7 et 30 s de période. A 15 s de période, le temps de propagation moyen est de 186 s, donc l'erreur faite par le modèle homogène est en moyenne inférieure à 5 %. A 40 s de période, le misfit est inférieure à 20 s ce qui correspond à moins de 10.8% d'erreur. Pour les deux types d'onde le misfit augmente avec la période tout en restant inférieur à une demi-période. Cette figure montre que le modèle homogène explique déjà correctement les données dans leur ensemble. Ces modèles homogènes remplissent donc la condition selon laquelle le modèle initial doit être assez proche du modèle final (voir début du chapitre).
0 avec ΣI le misfit
La variation du misfit lors de l'inversion est donnée par la formule : ΣIΣ−Σ 0 après inversion et Σ0 le misfit avant inversion. Cette valeur apporte une information sur l'intérêt de construire un modèle hétérogène plutôt qu'un modèle homogène pour expliquer les observations. F IGURE 2.12
:
Misfit
initial (
a) et variation du misfit entre les modèles initial et final (b) pour les ondes de Love (courbes rouges) et Rayleigh (courbes noires) Entre 7 et 35 s de période, pour les ondes de Love et les ondes de Rayleigh,
les
modèles hétérogènes obtenus améliorent de plus de 20 % l'écart moyen aux données (figure 2.12(b)). Cette amélioration montre que les modèles hétérogènes expliquent mieux les observations que les modèles homogènes initiaux. Cependant, l'amélioration du misfit varie avec la période et elle est plus importante entre 10 et 30 s de période. Nous pouvons relier cette amélioration du misfit entre 10 et 30 s
avec la
bande
passante dans
la
quelle
les corrélations de bruit sont les mieux reconstruites (voir partie IV, chapitre 2). Lorsque
l'amélioration du misfit
est importante cela
signifie
que
le modèle hétérogène re-
2.6
.
RAYLEIGH
179 construit explique
mieux les
donnée
s
que le modèle homogène initial.
Des
courbes
de la
figure 2.12(b
) nous pouvons déduire que les
modèles hétérogène
s reconstruits seront de bonne qualité entre
7
et
40
s de
péri
ode. A plus courtes et à plus longues périodes,
les modèles hétéro
gènes
apportent
moins d'informations. A ces périodes, il sera donc important de ne pas tenir compte des anomalies de petites tailles. Dans les deux paragraphes suivants, nous analyserons les cartes de vitesse de groupe obtenues pour les ondes de Rayleigh puis les ondes de Love. Pour les ondes de Rayleigh, nous décrirons les cartes des vitesses de groupes obtenues, puis, nous validerons nos observations en utilisant les résultats publiés par Karagianni et al. (2002). Enfin, nous ferons une interprétation rapide des structures identifiées
. 2.6 Cartes de vitesse de groupe calculées pour les ondes de Rayleigh 2.6.1 Description des cartes de la vitesse de groupe des ondes de Rayleigh ) par rapport à la vitesse
Les cartes représentent l'écart normalisé de la vitesse de groupe ( DV V moyenne notée en haut à gauche de chaque carte (Vm ). Seules les régions dans lesquelles la covariance du modèle après inversion est supérieure à 0.02 sont représentées. Nous avons choisi cette valeur car elle correspond à la région dans laquelle la résolution est meilleure que 200 km. En utilisant cette représentation, nous nous affranchissons des variations de la vitesse de groupe avec la période. Ainsi, il devient possible de suivre l'évolution des anomalies de vitesses avec la période. Sur ces cartes nous avons également représenté des éléments de la géologie (voir carte 1.7 partie II) : les grandes failles actives : en traits épais les zones de subduction : en trait épais avec des triangles vides les grandes sutures géologiques : en pointillés. Ces éléments nous permettront de nous situer mais également d'essayer de trouver des relations entre nos observations et la géologie. Les cartes de vitesse de groupe obtenues pour les ondes de Rayleigh à 10, 25 et 40 s de période sont présentées sur la figure 2.13. Nous avons sélectionné ces trois périodes pour la bonne qualité des résultats obtenus et pour leur représentativité. A 10 s, la majorité des régions immergées ont des vitesses plus lentes que les région émergées. En Mer Egée, la vitesse de groupe est autour de 2.5 km.s−1 alors qu'en Anatolie elle est 180 proche de 2.7 km.s−1 et monte jusqu'à 3.1 km.s−1. De plus, la vitesse de groupe pour l'ensemble des terres émergées semble plus homogène que pour les terres immergées. Trois régions ne correspondent pas à cette description sur la figure 2.13 : Cyclades (zone Cy) : qui sont en Mer Egée et où la vitesse est proche de 2.8 km.s−1 nappes de Lycie (zone Ly) : qui se trouve en Anatolie mais dont la vitesse est proche de 2.5 km.s−1 sud-ouest du Massif de Kirsehir (zone Kh) : qui se trouve également en Anatolie et dont la vitesse est proche de 2.5 km.s−1 A 25 s de période, nous remarquons que la tendance est inversée. 2.6.2 Comparaison de nos cartes de vitesses de groupe en Mer Egée avec celles de Karagianni et al. (2002) : validation de nos résultats
Sur ces cartes nous noterons les anomalies par : Ax : bassin d'Axios Ese, Eso et En : bassins de la Mer Egée (sud-est, sud-ouest et nord) Ma : bassin de la Mer de Marmara. Ano : Anatolie nord occidentale Ik : golfe d'Iskendür (nord de Chypre) Mn : Massif de Menderes Kh : Massif de Kirsehir 2.6. RAYLEIGH 181 Ly : nappes de Lycie Cy : Cyclades Karagianni et al. (2002) ont calculé les cartes de vitesses de groupe des ondes de Rayleigh en Mer Egée à partir des enregistrements de séismes régionaux. La figure 2.14 compare les cartes de vitesse de groupe des ondes de Rayleigh obtenues par les deux études pour trois périodes : 10, 14 et 24 s. A 10 s de période, les deux études localisent la majorité des anomalies négatives en Mer Egée (Ax, Ese, Eso, En et Ma), et une anomalie positive sous les Cyclades (Cy). Les valeurs de ces anomalies sont très proches avec environ 5% pour les anomalies rapides et -7% pour les anomalies lentes. La différence principale entre ces deux études concerne principalement la résolution. En effet, notre étude isole les anomalies lentes alors que dans leur études les anomalies lentes sont toutes reliées. La plus grande différence se trouve au sud de la Mer Egée car sur notre carte l'anomalie rapide sous les Cyclades s'étend vers le sud. A 14 s, nous remarquons également que les positions et les amplitudes des anomalies rapides et lentes sont identiques. Comme à 10 s de période, nos anomalies semblent plus individualisées que les leurs ce que nous pouvons relier à différence de résolution entre les deux études en faveur de la nôtre. Les différences principales sont situées au nord de Rhodes (Ese) où nous avons une anomalie lente alors qu'ils mesurent une anomalie rapide et en Grèce à l'ouest des Cyclades (Cy) où nous n'avons pas d'anomalie alors qu'ils identifient une anomalie rapide (même anomalie qu'à 10 s de période). A 24 s de période, la plus grande différence se trouve au sud-est des Cyclades (Cy). Ils observent une anomalie lente de -1% alors que nous avons une anomalie qui va jusqu'à 10%. 2.6.3 Confrontation entre les cartes de la vitesse de groupe des ondes de Rayleigh et la structure géologique
A partir de ces cartes de vitesse de groupe de la figure 2.13, nous pouvons remarquer plusieurs structures importantes. Tout d'abord, nous pouvons identifier les grands bassins sédimentaires sous la forme d'anomalies lentes à courtes périodes (inférieures à 10 s). Ainsi, nous pouvons identifier les bassins de la mer de Marmara (notés Ma), le bassin d'Axios (noté Ax), les bassins nord, du sud-ouest et du sud-est de la Mer Egée (notés En, Ese et Eso) et le bassin au nord de Chypre (noté Ik pour le bassin d'Iskendur). Ces anomalies lentes (sauf Ik) à courtes périodes deviennent des anomalies rapides pour des périodes proches de 20 s. Ainsi, à 25 s, la Mer Egée est caractérisée par une anomalie rapide et l'Anatolie une anomalie lente. Plusieurs études ont montré que la croûte est amincie en Mer Egée (Tirel et al. (2004); Karagianni et al. (2005)) avec des profondeurs du Moho comprises entre 20 et 25 km. D'autre part, pour l'ensemble de notre réseau nous avons observé que la profondeur moyenne du Moho est d'environ 30 km (voir la figure 2.11). Cette différence entre la profondeur moyenne du Moho et celle du Moho en Mer Egée explique l'anomalie rapide observée à 20 s. Lorsque la période augmente, les anomalies rapides semblent se propager depuis la Mer Egée vers l'est sous le Massif de Menderes (noté Mn) et dans le nord de l'Anatolie ocidentale (noté Ao). Nous pouvons supposer que cette extension des anomalies rapides est liée à une faible épaisseur crustale dans ces régions. A toutes les périodes nous pouvons également noter la ce d'une anomalie lente dans les nappes de Lycie (Ly). A courtes périodes (10 s), cette anomalie est probablement à mettre en relation avec la présence d'une grande épaisseur de roches sédimentaires peu métamorphisées sous les nappes de Lycie (Okay et al. (2001)). A plus longues périodes (25 s), l'anomalie lente suggère que la croûte est épaissie. Cette analyse simple des cartes des vitesses de groupe des ondes de Rayleigh nous a permis de mettre en évidence la relation entre des anomalies lentes et les bassins sédimentaires à courtes périodes et d'identifier des variations d'épaisseur crustale pour des périodes plus longues. Nous n'avons pas remarqué de relation entre la vitesse de groupe et les différentes sutures entre blocs continentaux représentées par les pointillés sur les cartes. Cependant, l'analyse des cartes de vitesse de groupe ne permet pas une analyse poussée de la structure. Nous tenterons une analyse plus complète dans le chapitre suivant à partir du modèle en trois dimensions de la vitesse des ondes S.
2.6. RAYLEIGH 183 F IGURE 2.13 : Cartes des variations relatives de la vitesse de groupe des ondes de Rayleigh à 10 s, 25 s et 40 s. La vitesse moyenne qui correspond au 0% de l'échelle de couleur est indiquée en haut à gauche sur chaque carte.
Ax : bassin d'Axios, En, Ese, Eso : bassins de la Mer Egée,
Ano
: Anatolie nord-occidentale, Ma : bassins de la Mer de Marmara, Mn : Massif de Menderes, Ly : nappes de Lycie, Ik : golfe d'Iskendur, Kh : Massif
de
Kirsehir
184 F IGURE 2.14 : Comparaisons en Mer Egée, de nos cartes des vitesses de groupe des ondes de Rayleigh avec celles obtenues par Karagianni et al. (2002) à partir d'enregistrements de séismes régionaux pour 10 s, 14 s et 24 s. 2.7. LOVE 185 2.7 Cartes de vitesse de groupe des ondes de Love 2.7.1 Description
La figure 2.15 montre qu'à 10 s de période, nous identifions les mêmes anomalies lentes en Mer Egée (En, Ese et Eso), en Mer de Marmara (Ma), au niveau du bassin d'Axios (Ax) et au sud du Massif de Kirsehir (Kh) que pour les ondes de Rayleigh. La vitesse des ondes de Love dans ces anomalies est d'environ 2.7 km.s−1. En Anatolie, la vitesse de groupe des ondes de Love est moins homogène que celle des ondes de Rayleigh. Notamment nous identifions une importante anomalie positive avec des vitesses proches de 3.3 km.s−1 dans presque toute l'Anatolie et des anomalies négatives plus fortes avec des vitesses de groupe de 2.75 km.s−1 sous les nappes de Lycie (Ly) et à l'ouest du Massif de Kirsehir (anomalie Kh qui se prolonge vers le nord). A 25 s de période, les anomalies rapides se trouvent principalement en Mer Egée et les vitesses de groupe observées sont proches de 3.6 km.s−1. F IGURE 2.16 : Comparaison entre les cartes des vitesses de groupe des ondes de Love que nous avons calculées et celle publiée par Cambaz and Karabulut (2010). Ax : Bassin d'Axios, En : Bassin du nord de la Mer Egée (pour les anomalies voir cartes 2.13)
Une observation globale de ces cartes de vitesses de groupe montre que les grandes variations spatiales de la vitesse de groupe des ondes de Love et les valeurs de cette vitesse semblent identiques pour les deux études. Comparaison à 10 s de période L'anomalie rapide la plus importante en Anatolie occidentale (notée Ao sur la figure 2.16) est présente dans les deux études et la vitesse des ondes de Love y est proche de 3.3 km.s−1. 188 Nous pouvons également retrouver l'anomalie lente sous les nappes de Lycie (notée Ly) avec une vitesse de 2.7 km.s−1. Dans le nord de la Mer Egée, nous pouvons remarquer qu'ils obtiennent une unique anomalie dans le bassin d'Axios (Ax) qui semble découpée en deux anomalies différentes sur notre carte (Ax et En). La vitesse dans ces anomalies est identique et égale à 2.7 km.s−1. Enfin, sur nos cartes, nous observons une dernière anomalie rapide dans le Massif de Kirsehir (Kh) qui semble séparée de l'anomalie d'Anatolie Occidentale (Ao) par une structure plus lente alors que dans leurs résultats, l'anomalie rapide est continue (anomalies Ao et Kh). Nous pouvons supposer que cette différence est liée à l'étalement des structures dans la direction est-ouest qui semble plus fort dans leur étude que dans la notre. Il semble qu'au moins dans cette région, notre résolution spatiale soit supérieure à celle de leur étude..
| 32,730
|
44/hal.archives-ouvertes.fr-tel-03273556-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,135
| 13,937
|
3.1.3. Troisième principe : Rejeter le déterminisme technique
Le rejet du déterminisme technique renvoie au rejet du modèle linéaire de l'ingénieur à l'utilisateur (Bernoux, 2015). Qu'incombe le fait d'importer cette position? C'est un certain challenge de l'assumer car, le déterminisme technique est assez bien installé et admis dans les milieux du transport et de l'aménagement. La part d'implicite paraît assez importante dans cette posture, accueillie comme la seule possible au regard des discours qui peuvent se tenir dans des disciplines expertes en la matière, en l'occurrence les disciplines techniques. Il existe en effet, en particulier en aménagement, de par la place des réseaux techniques relevant du champ de l'ingénierie, une vision installée du déterminisme technique. Dans notre expérience, nous avons vu le déterminisme intégré comme une norme sans alternative et non questionné. Lors de nos différents travaux sur la mobilité nocturne et l'éclairage public, ce sont les tenants du déterminisme technique et du modèle linéaire que nous avions face à nous, qui étaient parfois nos commanditaires, ou qui étaient dans l'équipe interdisciplinaire. Cette expérience personnelle n'est qu'une illustration dans un secteur professionnel précis de l'idée préconçue concernant la répartition des rôles de chaque participant dans la réflexion et des trames des résultats qu'on est en droit d'attendre. L'entrée des SHS dans ce secteur s'étant faite à travers le thème de la réception sociale des objets techniques, la conclusion en est tirée que cela constitue le champ d'expertise par excellence des SHS. L'idée est d'autant mieux ancrée qu'une obligation d'intégration des SHS dans les réponses aux appels d'offres est présente dans de nombreux règlements régissant ces appels. Certes, cela est une avancée et permet aux SHS d'être identifiées mais il n'est pas souhaitable que cela se transforme en cantonnement. Il s'agit alors de se mettre à distance d'un déterminisme technique à bas bruit, intégré et non questionné. Cela s'est fait par un processus identifiable dans nos publications. Il y a d'abord les articles portant sur la mobilité nocturne avec une approche sur les compétences de l'individu – usager, qui pointent l'intérêt d'un tel ensemble de données dans le domaine et un manque de prise en compte. Nous incluons dans nos hypothèses des approches exploratoires concernant les usagers et leurs compétences à la suite de S. Mosser (Mosser, 2003). 64 population et ainsi de produire de nouvelles recommandations (Sajous, 2008a et 2010). Nous gagnons en assurance au fil des études, des rencontres, de la formation continue. Cela amène ainsi à produire une critique – constructive - de l'attitude générale des acteurs s'inscrivant par méconnaissance ou par désintérêt dans cette sphère du déterminisme technique (Sajous, 2012). Prenons le cas de la mobilité automobile. Nous avons pointé des situations insatisfaisantes comme des actions d'aménagement engagées avec des résultats relativement maigres au regard des investissements consentis. Ce sont notamment des politiques publiques de transport aux accents très déterministes et dont nous déplorons les résultats « mitigés » au regard des statistiques en rendant compte (Sajous, 2017). En travaillant en rejetant le déterminisme technique, en s'appuyant sur le « modèle de traduction » (Bernoux, 2015), cela permet de développer une compréhension des comportements des groupes et organisations. Nous y avons eu recours dans le cas de la mobilité électrique (Sajous et Bailly-Hascoët, 2017) ou encore face au double-discours des constructeurs automobiles comptant plus sur le rêve que sur les options techniques pour maintenir les niveaux de vente et l'image sociale de la voiture particulière (Sajous, 2019a, c.f. encadré 4). Au-delà de la diversité des objets, des cadres des études, le point commun de ces expériences de recherche réside dans le fait de se donner un périmètre de réflexion faisant place à une analyse des usages dans leur non-rationalité ou du moins, dans une logique d'usage ne répondant pas au référentiel utilitariste adossé à une grille de lecture tourné exclusivement vers la notion d'intérêt, que ce dernier soit individuel ou collectif (Aït Saïd, 2011). Encadré 4. Des acteurs engagés dans une relativisation du déterminisme technique
Durant nos projets de recherche, des acteurs dans l'électromobilité, la publicité automobile et l'action de développement local gersoise Soho solo ont été observés dans des phases que nous qualifions de relativisation du déterminisme technique. Nous disposons en effet d'éléments ou assistons à une situation où ces acteurs sont en train de donner du sens à une technique. Cela se fait sans évidence comme dans le cas de l'électromobilité où chaque acteur cherche sa place entre les améliorations techniques, la nouvelle législation et la recherche du business plan (Sajous et Bailly-Hascöet, 2017). Un « modèle de traduction » (Bernoux, 2015) est à l'oeuvre comme le montre les résultats. Les apports de la sociologie des organisations sont un plus pour observer des acteurs devant assimiler un changement important de l'environnement professionnel. Cela modifie les réseaux et relations, fait apparaître de nouveaux acteurs (grande distribution, syndics), et place face à une grande variation dans la volonté et la capacité d'intégrer ce changement (grande distribution très volontaire, syndics en retrait). Le cas de Soho solo, action de développement local de télétravail à temps complet dans le Gers, démontre que trop présumer des capacités techniques des utilisateurs en informatique et numérique, peut nuire aux objectifs. Ici, cela a grandement mis en difficulté la politique de développement local. L'action a dû être arrêtée en 2007 pendant un an suite aux critiques des premières personnes installées montrant que les télétravailleurs n'étaient pas du tout satisfaits du périmètre d'accueil. La chmbre de commerce et d'industrie (CCI), à l'initiative du projet, traitait l'installation professionnelle des « solos » (démarches administratives, la recherche de financement, le profilage de l'activité) et se reposait sur les capacités les des candidats et leur usage d'internet pour le reste. Après la reconfiguration, le site internet, vitrine de l'action, a été refondu avec des outils de géolocalisation interactifs et des contenus audiovisuels. Télécentres et villages d'accueil sont créés avec pour mission d'épauler les candidats dans les démarches d'installation tant sur les aspects professionnels que privés et cela de manière gratuite et illimitée. L'analyse de publicités automobiles montre finalement que les professionnels du secteur n'ont jamais cru au déterminisme technique. « Si nous commençons à dire que la voiture constitue le seul moyen 65 de se rendre d'un point A à un point B, nous ne vendrons plus rien » (Ateliers du CCFA, 2012)71. 3.1.4. Quatrième principe : Admettre les interactions individus – objets techniques
Les principes énoncés précédemment préparent en quelque sorte celui d'admettre un principe d'interaction individus – objets techniques. Il concrétise la réintroduction de la spatialité des relations individus - objets techniques, aiguillonée en cela par la lecture d'autres SHS (c.f. chap.2). Dans ses travaux, J. P. Warnier identifie le processus entre les individus et les objets techniques sous les traits d'une « incorporation de la dynamique de l'objet à titre de prothèse dans une conduite motrice » (Warnier, 1999). Nous avons proposé pour notre part, la notion de corps augmenté pour en rendre compte. Cette expression a la faculté de restituer l'idée d'interaction et de dépasser l'idée d'un rapport maîtrisé par l'individu et contenu dans la situation de manipulation de l'objet technique. Voilà la voie choisie pour répondre au troisième principe, énnoncé juste avant. Pour sortir du déterminisme technique, nous nous focalisons sur la continuité qui s'établit entre les individus et les objets techniques. Cette continuité s'instaure par l'objet technique lui-même que l'on peut considérer comme une partie du corps, un membre. La greffe se fait bien souvent au niveau des mains. Mais, cette greffe va irradier le corps. L'individu a la possibilité de faire avec ses mains, mais aussi de « penser avec ses mains » (Warnier reprenant une expression de M. Mauss, 1999). La continuité recouvre alors également la nécessité de penser l'individu dans son unité intérieure, loin de l'idée d'opposition chair / esprit, pour être au fait de la relation individus – objets techniques. Nous allons revenir sur ce point mais, ici posons la question des conséquences de poser ce principe pour traiter de l' . Tout un ensemble de questions aiguise la curiosité : comment l'espace peut être appréhendé lorsqu'on inclut l'idée que cela passe aussi par les mains et de manière plus générale, par une dynamique sensorielle où vient se loger également la pensée? Comment parler dans ce cadre de l'interaction entre l'individu et l'espace? La dimension active associée à l'espace de projets (c.f. introduction générale, 1 C.), retenue dans la définition du terme semble ici prendre tout son sens. Ce ne peut pas être seulement le référentiel, réductible à la localisation et à l'instant du rapport à l'objet technique, comme repéré dans des écrits de différentes SHS (c.f. chap 2.) mais l'espace, en tant qu'espace de projets qui existe dans les interactions individus – objets techniques. C'est ce statut actif vers lequel nous tournons notre regard, que nous voulons explorer. Des dimensions géographiques sont d'ores et déjà admises pour les objets techniques à travers des solutions permettant de traiter la question spatiale72. Mais, comme l'utilisation des objets techniques, tels les RTM, n'est pas une fin en soi, il Simplement citées ici et justifiées dans le chapitre 4 : parcourir, maîtriser, transporter, mémoriser, sécuriser 66 s'agit de s'intéresser aux au-delàs, aux projections dans le futur, d'apporter un éclaircissement sur la part des objets techniques dans ces projets outre le service technique rendu lors de l'utilisation. L'incorporation, c'est-à-dire l'intériorisation, et en même temps qu'elle s'opère, le mélange du social et du spatial (Di Méo, 2010), devient alors une notion centrale pour traiter des interactions entre individus et RTM. La mise en oeuvre de ce principe exige dès lors la prise en compte du corps. Comme nous avons pu le voir, le domaine de la mobilité a plutôt eu tendance à se reposer sur les savoirs sociologiques en la matière notamment à travers les travaux de J. Urry et V. Kaufmann (c.f. chap. 2), sans que cela ait permis de poser la question du rejet du déterminisme technique. Pour être dans ce rejet et faire place au principe d'interaction, nous pensons nécessaire de se tourner vers les travaux concernant le corps en géographie (Tuan, 2007 ; Coëffé, 2014 ; Di Méo, 2010 ; Hoyez, 2014 ; , 2016)73. Nous avons déjà emprunté à ce courant pour la définition d'individu et de son corps. Entrer plus en profondeur sur les interactions individus – objets techniques renforce le recours à cette voie. D'abord, les principes phénoménologiques fondant ce courant assurent la possibilité de travailler à une géographie où le corps est tout entier impliqué dans un dialogue avec le monde, dépassant les divisions classiques corps charnel / esprit et mondes intérieur / extérieur à l'individu (c.f. définition Individu en introduction générale). C'est également un courant attentif aux pratiques et aux expériences (Barthe-Deloizy, 2011), donnant une place au « concept de pratique » (Coëffé, 2014, citant les travaux du MIT). 3.2. Penser la dimension géographique des RTM : régler la question méthodologique
Nous procèderons en deux temps pour aborder les aspects méthodologiques. Nous déclinerons d'abord le travail sur la méthode autour des quatre principes. Puis, nous proposerons une discussion en forme de retour d'expérience, en indiquant les points à améliorer de ce travail. 3.2.1. Du cadre conceptuel au cadre méthodologique
On comprendra très rapidement à la lecture que la transposition du cadre conceptuel vers un cadre méthodologique s'opère en direction de l'approche qualitative. Ce n'est pas simplement pour régler une question d'outils, plus en adéquation avec les problématiques auxquelles nous nous attelons. Mais, cela s'enracine dans le fait de considérer la question de méthode choisie comme l'explication d'un « chemin suivi » et pas seulement « d'un chemin à suivre » selon la distinction proposée par M. Charmillot et C. Dayer. C'est revenir aux sources de l'étymologie du mot méthode. Cela permet de prendre en compte tant les aspects épistémologiques et théoriques associés à l'approche qualitative que les aspects techniques (Charmillot et Dayer, 2006). Ces aspects épistémologiques et théoriques se déclinent à partir du postulat considérant l'individu comme un acteur. Cela demande dès lors de porter l'attention sur ce dernier en analysant sa recherche de relations, d'échanges, son besoin de comparaison à des fins de catégorisation, « l'invention de forme et de sens ». Tout cela peut permettre de cerner l'acteur, de comprendre sa dynamique. Voici ainsi nos objectifs énoncés mais ce sont aussi les catégories des « processus intellectuels fondamentaux sous-jacents aux techniques et méthodes qualitatives » qui selon A. Mucchieli, fondent indubitablement l'inscription dans une démarche qualitative. Ces processus reposent finalement selon le même auteur « sur quelques procédés naturels utilisés spontanément par l'esprit humain pour ordonner le monde et le comprendre » (Mucchieli, 2006). L'individu-acteur peut se saisir dans le cas des RTM, à travers l'étude de l'usager. Nous nous sommes ainsi intéressée aux actes ifs (les usages) comme aux moments où un individu active mentalement ce qui est associé à un usage et les discours intériorisés. Il s'agit en l'occurrence de bien rester dans le corps regroupant processus physiologiques et cognitifs, interfacial, pour capter le rôle de l'augmentation par les RTM au bénéfice de la compréhension de la construction de l'espace. En accord avec ce que nous venons de dire ce n'est pas qu'une question de collecte de données qui est en jeu mais, un engagement pour être au contact des pratiques et représentations ; ce qui amène à construire « l'activité scientifique à partir des questions que se posent les acteurs en relation avec leurs savoirs concrets, plutôt qu'à partir des questions que le chercheur se pose » (Charmillot et Dayer, 2006). Comme le dit encore A. Nous nous proposons, à partir des travaux menés depuis 1999, de montrer comment les principes et la méthode cheminent de concert. Il s'agit alors de rappeler les aspects épistémologique, théorique et le déploiement des techniques attachés à l'approche qualitative mis en jeu pour chacun des principes de notre cadre conceptuel. Un corpus de douze études est passé en revue. Certaines ont pu renfermer plusieurs phases méthodologiques (en particulier XTerM)74. Nous synthétisons des expériences, qui sur le plan technique ont pu être plusieurs fois répétées, à différents moments ou dans différentes circonstances sans pour autant les extraire d'une singularité liée au parcours. 3.2.1.1. L'entretien : toute une approche méthodologique pour mettre à distance le positivisme géographique
A la suite des propos cités de A. F. Hoyaux (c.f. 3.1.1), dans un même principe de contre-pied au réalisme, l'idée est de se donner du champ pour explorer la parole, au côté des usages, afin d'expliquer la relation à l'espace. Naturellement, certains préviennent que les méthodes quantitatives marcheraient plus facilement dans les pas du positivisme, attachées à avancer une neutralité et une scientificité qui leur seraient inhérentes (Bertaux, 1976). Mais dans notre démarche, nous préférons justifier notre chemin non pas en opposition avec une autre méthode, manière classique d'opérer dans les manuels (Mucchieli, 2006) mais de l'intérieur, par ses apports (Imbert, 2018). Aussi, par les aspects épistémologiques qu'il met en jeu, l'entretien constitue un passage obligé permettant une position compréhensive, d'écoute de l'enquêté, cherchant moins à « vérifier sur les autres ce qu'on pense » qu'à « faire advenir avec les autres ce qu'on ne pense pas » (Laplantine cité par Chamillot, 2006). L'entretien semi-directif fait partie de ces moyens de « comprendre en profondeur des phénomènes complexes : les sujets livrent leurs conceptions de la réalité, leurs visions du monde, leurs systèmes de valeurs ou de croyances, le sens qu'ils attribuent aux objets ou aux comportements » (Berthier, 2010). Nous ne prétendons pas travailler dans toutes ces directions, mais il faut qu'elles soient présentes pour penser déloger la dimension géographique des RTM. C'est le support du déploiement de la parole accompagné des gestes dans certaines circonstances d'études – qui permet d'aborder le positionnement géographique des individus en lien avec RTM, en faisant une part aux discours comme aux pratiques déclarées ou constatées. C'est en outre dans la visée de notre objectif scientifique un point essentiel qui renvoie aux trois autres principes. C'est parce qu'on conçoit l'entretien comme une plateforme pour travailler en parallèle sur pratiques constatées ou déclarées et discours général intégrant ces dernières, sans s'y limiter, qu'il est ensuite possible de vérifier et travailler les questions du rejet du déterminisme technique, de l'existence des interactions individus – objets techniques et d'une mise à distance de l'idée d'uniformisation. Cette disposition est centrale. Du point de vue de la technique, des points de nos pratiques en découlent. Méthodes d'enquêtes et échantillons sont présentés dans le tableau 2 en notant que parfois, des dispositifs complémentaires ont été utilisés (études LedVille, Puca, XterM notamment). Tab. 2. Méthodes d'enquêtes privilégiées et échantillons
Référence des études75 Méthode d'enquête retenue Echantillon Un cahier des charges pour une Enquête qualitative par entretien semi- 30 personnes future automobile périurbaine directif en face-à-face (1999) L'automobilité périurbaine en Enquête qualitative par entretien semi- 26 personnes France, une façon d'habiter directif et « film-action76 » (Berthier, (thèse, 1999- 2003) 2016) en face-à-face NumeLiTe (2004-2006) Enquête qualitative par entretien semi- 25 personnes directif en conditions réelles d'usages ORUS (2007) Enquête qualitative par entretien semi- 69 personnes directif en conditions reconstituées (simulateur) des usages Etude LED Ville (2008-2010) Enquête auto-administrée (indirecte ou 73 personnes directe) Enquête qualitative par entretien semi23 personnes directif en conditions réelles d'usages Action de sensibilisation des élus Enquête qualitative par entretien semi- 22 personnes et des habitants à la pollution directif effectuée par téléphone lumineuse et à la maîtrise de l'énergie (2010) Sociologie des Acteurs Locaux et Enquête qualitative par entretien semi- 30 personnes77 Organisation de la Mobilité directif en face-à-face Electrique (2010) Cognitive Assisted Living Enquête qualitative par entretien semi- 35 personnes78 Ambiant System (2012-2013) directif en face-à-face Télétravail à temps complet Enquête qualitative par entretien semi- 31 personnes Soho solo (2011-2012) directif par téléphone (majorité) ou faceà-face Dynamiques du peuplement, 1 questionnaire par auto-administration 317 ménages des formes urbaines et des 79 mobilités dans les territoires de Enquête qualitative par entretien semi- 31 ménages la périurbanisation (2012-2014) directif en face-à-face 75
Ici sont mentionnées les phases d'enquête dans quelles nous avons été impliquée et cela ne rend pas forcément compte de l'intégralité des protocoles présents dans l'étude (PUCA notamment). Pour les détails, se référer au vol. 2, 2.1.
Responsabilité de contrats ou de programmes de recherche
Les projets de recherche. Les études sur le télétravail Soho Solo et les publicités automobiles n'y sont cependant pas décrites car menées sans contrat de recherche spécifique. 76 « Entretien où le sujet est invité à reconstituer par le menu un moment de sa vie quotidienne » Berthier, 2016) 77 Les entretiens n'ont pas été réalisés personnellement mais par Shadi Sadeghian. 78 Les entretiens n'ont pas été réalisés personnellement mais par Emmanuel Nyonsaba. 79 Les entretiens n'ont pas été réalisés personnellement mais par Hélène Nessi. 70 Systèmes complexes, - Electromobilité : Intelligence territoriale, Mobilité Enquête qualitative par entretien semi- 17 personnes80 (2014-2019) directif en face-à-face Atelier-débat des acteurs en région 10 personnes - Télétravail à temps partiel : Enquête qualitative par entretien semi- 14 entretiens directif par téléphone - Réseaux CODAH : Enquête qualitative à entretien semi- 48 entretiens81 directif en face-à-face Publicités automobiles (2016- Etude documentaire 2017) 18 publicités
S'il y a au moment de la rédaction du guide une place privilégiée pour les questions ouvertes, une part de cet objectif se joue aussi durant la passation dans l'attitude de l'enquêteur dans la prise de contact, les relances ou encore le fait de ne pas couper la parole. Durant les phases de traitement et d'analyse des données, il faut rester au plus proche des verbatim en ne cherchant pas seulement à repérer les idées directement géographiques. Il faut avoir une forme de veille concernant les croisements d'entrées thématiques possibles et autres formes d'associations d'idées formulées. Les échantillons, quant à eux, établis au regard de la méthode, cherchent à rassembler des types de profils qui pouvaient apparaître en lien avec telle ou telle pratique de mobilité. Comme le dit N. Berthier (2016), « l'objectif est de comprendre les situations, non pas d'estimer les valeurs dans une population d'enquête. » Aussi cela donne des échantillons comportant entre 20 et 70 personnes. Nous avons parlé dans nos publications d'échantillons caractéristiques pour signifier à l'instar de N. Berthier, l'objectif de regrouper des personnes représentatives dans le sens de « typiques » d'un groupe. Enfin, si le passage par l'entretien semi-directif et l'échantillon caractéristique ou raison s'impose, d'une part par le caractère exploratoire de la prospection de l'individu (c.f. 3.1.1.), d'autre part pour considérer des individus - acteurs, il s'agit aussi de répondre au caractère bien souvent exploratoire des objets de recherche visés, objets peu couverts par la bibliographie. Les entretiens ont été réalisés pour partie par V. Bailly-Hascöet et nous-même. Les entretiens ont été réalisés pour partie par Lilian Loubet et nous-même. 3.2.1.2. Un discours technique relevant du culturel, au-delà de l'uniformisation
Concernant le principe de mise à distance de l'idée d'uniformisation des sociétés par les objets techniques, la méthode se focalise sur la manière d'intégrer les logiques culturelles et sociales des comportements. Cela constitue une façon de revenir sur l'uniformisation supposée et générée par les objets techniques. Nous avons identifié deux verrous dont nous pensons qu'ils jouent encore comme des freins à cette intégration en géographie : la capacité de penser une géographie individualisante et la neutralité créditée aux objets techniques. Ce n'est pas par ce seul principe que peut être pris en charge le dépassement de ces deux freins. Mais, il y contribue naturellement en se focalisant sur la mise en évidence des différenciations culturelles. Dans le tableau 3, nous débutons par préciser pour toutes les études, les périmètres dans lesquels nous avons travaillé. Ces périmètres reprennent pour la plupart des découpages administratifs plutôt à caractère intercommunal. Ce n'est pas le cas pour l'étude ORUS réalisée sur simulateur et pour l'étude en partenariat avec SAFRAN Nacelles au cours du projet XTerM, deux études en association avec des entreprises. Ces découpages administratifs se sont imposés, attributs du commanditaire quand celui-ci est un acteur public ou lorsqu'il y a un acteur public parmi les commanditaires. L'idée est d'avoir un recueil des données prenant en compte l'intégralité du territoire de compétences administratives. Cela ne veut pas dire que cela se traduit par une étude représentative du territoire. Cette entièreté peut être prise en compte de différentes manières. C'est par exemple le fait de considérer dans les profils échantillonnés le fonctionnement en intercommunalité ou en aire urbaine. Dans les cas du cahier des charge en 1999, de la thèse, de SALOME en 2010, du télétravail Soho solo en 2011-2012 et des dynamiques du peuplement, des formes urbaines et des mobilités dans les territoires de la périurbanisation (2012-2014), les périmètres ont été établis à discrétion, au regard des éléments monographiques disponibles (statistiques, bibliographie) pour en apprécier le fonctionnement et choisir une maille en écho aux aspects des protocoles retenus. A la suite de ce récapitulatif des périmètres, nous entrons dans le coeur du dispositif de mise à distance de l'uniformisation et donc de mise en évidence géographique des logiques culturelles et sociales de comportements. Il faut bien comprendre que nous ne sommes pas à l'un ou à l'autre bout du spectre entre uniformisation et diversité mais quelque part entre les deux. En évoquant le deuxième principe théorique, nous avons fait observer que les objets techniques ne sont pas seulement intéressants pour représenter une aire mais parce que du fait de la mobilité, les individus vont vers des objets techniques et que des rapports s'instaurent. Dans ce contexte, nous ne sommes plus face à des individus assujettis à une assignation territoriale permettant de les identifier à une aire par diverses caractéristiques (les cultures régionales du XIX° siècle en France par exemple) et nous ne sommes pas face à des individus qui ne se reconnaîtraient de nulle part. Nous sommes en présence d'individus gardant quelque chose d'une origine et étant porteurs de catégories spatiales dont l'association leur est propre, construite au gré de leur parcours de vie. Le travail sur la mise à distance de l'uniformisation reprend alors la définition retenue ici pour l'espace dans ses deux aspects : d'une part le référentiel qui coïncide avec les périmètres et d'autre part l'aspect actif, en fabrication, entrant en résonance avec des pratiques, pouvant avoir une influence dans la stratégie, l'attitude, le discours déclarés ou observés. C'est une entrée par laquelle la géographie prend place dans les pratiques et les discours construits autour des usages. Etre étranger ou familier à un usage se marque par des hésitations (ou pas) dans l'effectuation des gestes. En arrière-plan, cela se marque par un référencement spatial, d'ici ou d'ailleurs dans le sens par exemple, de là où on a pu voir ou apprendre à utiliser tel ou tel objet 72 technique. Cela nous renvoie à ce que nous avons pu dire haut sur la mobilité des populations, la participation des objets techniques à la « production de soi » fondant une nécessité de travailler la dimension culturelle en géographie des objets techniques (c.f. 3.1.2). Dans le dispositif méthodologique, des catégories spatiales sont mobilisées comme hypothèses, items géographiques ayant retenu l'attention pour le recueil et l'analyse au sein des périmètres indiqués. Ils se trouvent au carrefour entre dynamiques territoriales repérées et objectifs de recherche posés dans les études. Tab. 3. Périmètres et items géographiques des études
Référence des études Périmètre Raison et choix des géographiques étudiés items
Un cahier des charges pour une Oise, canton Chaumont en future automobile périurbaine Vexin (1999) Haute Garonne, canton St Lys
Principe de
comparaison
recherché
=> Un terrain périurbain francilien et un autre en région, dans un secteur très dynamique L'automobilité périurbaine en Aire urbaine d'Angers France, une façon d'habiter (thèse, 1999- 2003) Prise en compte des dynamiques de fonctionnement entre différents secteurs des ensembles urbains => Adossement à la (nouvelle) définition du zonage en aires urbaines pour constituer un échantillon de population habitant la « couronne périurbaine et travaillant dans le « pôle urbain » NumeLiTe (2004-2006) Site laboratoire dans la ville d'Albi (imposé par les choix d'installation des solutions techniques) Rechercher l'influence de la connaissance, de la familiarité des lieux, les éléments de substitution en absence de cette dernière => Enquêter des usagers aux profils établis selon lieu de résidence et / ou d'activités : habitants des rues du site-laboratoire, habitants de l'aire urbaine d'Albi et ayant l'occasion de se déplacer dans le site-laboratoire, personnes extérieures à l'aire urbaine et ne l'ayant jamais arpenté Etude ORUS (2007) Autoroute d'après un Pas d'items tronçon construit dans la retenus région nantaise préalablement 73 Etude LED Ville (2008-2010) Site laboratoire dans la ville du Séquestre (imposé par les choix d'installation des solutions techniques) Rechercher l'influence de la familiarité des lieux => Site laboratoire en entrée de commune d'où concentration de l'enquête sur usagers-résidants de la commune Action de sensibilisation des élus Pays de Digne-les-Bains et des
habitants à la pollution lumineuse et à la maîtrise de l'énergie (2010) Pas d'items retenus Sociologie des Acteurs Locaux et Paris Organisation de la Mobilité Plateau de Saclay Electrique (2010) Principe de comparaison recherché => Paris pour sa centralité et le plateau de Saclay pour sa faible densité, à l'image d'un espace périurbain sachant que les deux concentrent des acteurs majeurs de la mobilité
électrique
. Cognitive Assisted Living Structures de logements Pas d'items Ambiant System (2012-2013) adaptés (EHPAD, divers retenus instituts) à Rouen et au Havre Télétravail à temps complet
Communes
et
Soho
solo (2011-2012) commun
autés
de
commun
es du département du Ger
s
parmi celles ayant le label « village d'accueil » préalablement préalablement Mise en miroir du recours au télétravail et du parcours résidentiel => Localisation et ancienneté dans la résidence (à la fois pour les télétravailleurs que pour les personnes investies dans les comités d'accueil) Localisation des donneurs d'ordre des télétravailleurs et des relations établies Dynamiques du peuplement, des formes urbaines et des mobilités dans les territoires de la périurbanisation (2012-2014) Communautés de communes franciliennes : Vallée de Chevreuse, Brie boisée et Carnelle Pays de France Systèmes complexes, - Electromobilité : Intelligence territoriale, Mobilité Région Haute-Normandie (2014-2019)
Principe de comparaison recherché => 3 terrains à distances relativement égales de Paris et avec un équipement en transports en commun équivalent - Electromobilité Vision systémique d'un secteur en phase de structuration => Systèmes d'acteurs plus ou moins associés à la politique régionale - Télétravail à temps partiel: - Télétravail à temps partiel : 74 pas de périmètre a priori, « au-delà de 10km du lieu de travail » (selon règlement régissant le télétravail pour Safran Nacelles Le Havre) - Réseaux CODAH : Mise en miroir du recours au télétravail et du parcours résidentiel => Structuration du bassin de vie autour de l'axe domicile – travail et marges offertes par le recours au télétravail - Réseaux CODAH : Principe de comparaison CODAH (Communauté de recherché => habitants du Havre l'agglomération havraise) par rapport au reste de la communauté d'agglomération concernant des domaines
compétences de la CODAH (transports en commun en premier lieu)
Publicités automobiles (2016- Production à destination Pas d'items a priori mais repérage des chaines de télévisions lors de l'analyse de ceux les plus 2017)* françaises souvent mobilisés pour créer des associations d'idées stimulant le rêve * :
Nous ne travail
lons pas avec un échantillon d'individus mais de publicités. Aussi, nous avons fait l'hypothèse que des périmètres et des catégories spatiales sont plus présentes que d'autres. L'analyse permet de les préciser. Source : Sajous P., 2020 3.2.1.3. Quelle approche méthodologique pour rejeter le déterminisme technique? Pour mener à bien les études, en se départissant du déterminisme technique
, nous
expliquons not
re position en nous appu
y
ant sur la figure 9. Fig. 9. Etre ou ne pas être dans le
re
jet
du déterminisme technique
Rejet du déterminisme technique Usage RTM Approche déterministe RTM Solutions techniques à visée spatiale Usage Accommodement Circonstance(s) d'usage Solutions techniques à visée spatiale
En deux schémas, la figure 9 expose le fait que le(s) RTM recèle(nt) des solutions techniques à visée spatiale détaillées dans le chapitre 4 (parcourir, maîtriser, transporter, mémoriser, sécuriser). L'entretien est l'occasion de les aborder avec les enquêtés. Mais cela ne s'arrête pas là et, les usages véhiculent également des informations sur les circonstances d'usage. Ces circonstances peuvent être très variées, en fonction des RTM. Elles recouvrent les moments, les motifs immédiats, plus lointains, dans divers champs (économique, social, psychologique), tout un ensemble d'éléments donnant des indications sur des spécificités géographiques de l'usage. En phase de passation, cela demande de ne pas ignorer des pratiques, pouvant apparaître comme « mal comprises ou méprisées ». Nous nous tenons au maximum dans cette démarche pouvant permettre « d'isoler des « compétences », des « dispositifs », et « des formes d'action » » (Beaud et Weber, 2010). On se trouve alors face à l'enquêté-géographe dans le sens où il décrit une inscription spatiale mais il montre aussi que cette inscription est un projet qui trouve une matérialité plus ou moins en adéquation. Il faut parfois amorcer par une question ou relancer pour obtenir des informations sur telle ou telle circonstance d'usage. Mais, il est frappant d'observer comment une question portant strictement sur la matérialité de l'inscription spatiale (demander les itinéraires empruntés la veille, proposer de s'inscrire dans un scénario fictionnel de déplacement amène un discours justificatif dont le lien avec des dimensions géographiques n'est pas évident, discours absolument irrépressible et qui semble important à partager même sur le temps contraint de l'entretien (c.f. encadré 1). En portant l'attention sur l'accommodement, il s'agit d'aborder plus spécifiquement le rapport aux objets techniques du quotidien et dans notre cas, les RTM. L'accommodement fait alors référence dans l'univers technique du quotidien ne serait-ce que celui de la mobilité, au(x) moment(s) d'accroche où l'usage se fond dans le quotidien. L'accommodement est une entrée par laquelle on s'intéresse aux perméabilités existantes entre les individus et les objets techniques, un moment où les individus livrent une façon d'utiliser les objets techniques, la manière dont ils les ont façonnés, à leurs mains. 3.2.1.4. Quelle approche méthodologique pour admettre les interactions individus – objets techniques?
Le point précédent amène finalement très vite et en association, à l'analyse des interactions entre les individus et les objets techniques. Il s'agit de prendre le relais d'un déterminisme technique qui n'explique pas les choix spatiaux et d'être face à des RTM intégrés dans des choix de vie à plus ou moins long terme. Cela nous renvoie à ce que nous nommons l'analyse de la domestication. Notion bien identifiée par les STS (c.f. chap. 2), nous définissons la domestication comme une réponse à un besoin dont la satisfaction passe par l'intuition que tel objet (ou tel animal) pourrait le combler par son usage. Pour opérer ce rapprochement (besoin – objet ou animal), pour vérifier l'intuition, il faut mettre en oeuvre une approche particulière de l'objet ou de l'animal, à l'amorce de l'usage (Sajous, 2003). Nous nous sommes employée à regarder ce à quoi aboutissait la domestication en matière de mobilité à travers les RTM. Nous avons donc scruté la manière dont, au sens étymologique de domestication, les RTM entrent dans la domus, le foyer. A travers cela c'est un pan du rapport à l'espace auquel nous accédons. Autrement dit, comment les objets techniques participent, au quotidien, à la construction de l'espace? Le descriptif des résultats viendra dans les chapitres suivants. Pour les aspects méthodologiques, il faut retenir qu'admettre les interactions est dans le prolongement du rejet du déterminisme technique. C'est pour cela que nous mettons en miroir dans le tableau suivant (c.f. Tab. 4) déterminisme technique et interactions individus – objets techniques. A travers les objets d'étude, les contextes et les protocoles, nous évo quons le(s) déterminisme(s) technique(s) repéré(s) et leur(s) dépassement(s) pour cerner le mode d'emploi personnel d'un RTM avec un objectif géographique. La phase de notre vie professionnelle où nous faisions du conseil est peut-être ici plus parlante que la phase universitaire car elle est en soi plus libérale dans le sens où c'est le besoin de la collectivité ou de l'entreprise qui déclenche le processus de mise en place d'une étude. Dans une recherche universitaire, on retrouve ces acteurs plutôt en « partenaires » et la génération du besoin premier est plus partagée.
77 Tab. 4. Déterminisme technique et continuité humain – non-humain, entrées thématiques selon les études Référence études des Se mettre à distance du Admettre les interactions individus – objets déterminisme techniques technique
Forme d'interaction Traductions technique et angle(s) réflexif(s) développé(s) Un cahier des Production du schéma Déclinaison charges pour une général de la mobilité motivations future automobile quotidienne périurbaine (1999) des Parcours résidentiel L'automobilité Production du schéma Capitalisation de la périurbaine en général de la mobilité pratique* spatiale France, une façon quotidienne adossée à un savoird'habiter (thèse, faire* 1999- 2003) Motivation pour le dernier choix résidentiel Programme des activités et des déplacements - Scénario d'organisation d'un déplacement pour motif administratif dans une ville jamais parcourue mais dans le périmètre régional afin de mettre en évidence la « capitalisation de la pratique spatiale » (Sajous, 2003) - Programme des activités et des déplacements puis description fine sur la journée du samedi pour disposer de matériel d'analyse concernant l'activation de « l'idéal social des réseaux » pour effectuer les déplacements cités. NumeLiTe83 (2004- Posture préalable des Compétences d'usage commanditaires 2006) admettant ne plus ORUS (2007) pouvoir considérer qu'un usager se définit Etude LED Ville d'après les capacités (2008-2010) standard de l'oeil humain en contexte d'éclairage public 84 extérieur Elaboration du protocole de Collecte des Perceptions en situation (CPES) basée sur un entretien focalisant, en premier lieu, sur les perceptions visuelles (déclinées en différents axes thématiques faisant autorité dans le domaine : éblouissement, uniformité, la couleur des 83 Pour les études NumeLiTe, ORUS et LED Ville effectuées durant la phase professionnelle de conseil en aménagement, on est dans un contexte d'ouverture de créneau de marché et le protocole est repris et adapté pour différentes commandes. 84 Selon les pratiques en vigueur arrêtées lors de la Commission internationale de l'éclairage de 1931 renvoyant aux travaux de J. Guild et D. Wright afin d'établir l'espace de couleur Rouge Vert Bleu (dit « CIE RGB »). 78 lampes, le rendu de couleurs, le confort visuel), en situation d'usage sur un itinéraire prédéfini puis, en second lieu, le discours des représentations associées (sécurité routière, sécurité des personnes, identité et image de l'espace traversé) Représentations de l'intégration de nouvelles techniques (led) ou méthodes de gestion de la mobilité nocturne (gradation, extinction partielle ou retrait de l'éclairage public extérieur). Personnes interviewées en tant qu'élu.e.s. L'absence de recueil individuel limite l'approche des interactions. Cognitive Assisted Situation générale de Analyse non conduite Living Ambiant cloisonnement entre les dans cette recherche System (2012-2013) disciplines notamment Sciences et Techniques et Sciences Humaines et Sociales Intervention de l'équipe SHS positionnée dans le 1° workpackage (et non en fin de phasage comme pour vérification de réception sociale de techniques), avec le projet, d'acculturation et de meilleures prises en compte des SHS. Action de sensibilisation des élus et des habitants à la pollution lumineuse et à la maîtrise de l'énergie (2010) Réalisation d'entretiens « par grappe » (à savoir rencontrer les aidants cités par l'aidé) autour d'une personne handicapée qui pour caler les scénarios et recommandations du cahier des charges85. Télétravail à temps Histoire du dispositif Rétablissement et/ou Motivations de la mobilité complet Soho solo Soho solo dont première renouvellement des résidentielle (2011-2012) phase (Sajous, 2011) routines Programmation quotidienne pour le travail : voir comment jouer et se jouer des routines 85 Cela renverse la donne : pour limiter le déterminisme technologique, essayer de prendre en compte plus en amont les apports de la sociologie et de la géographie-aménagement dans l'élaboration d'un cahier des charges. Le guide d'entretien se compose d'une partie portant sur les programmes d'activités et de déplacements du quotidien, une partie sur le recensement des techniques d'aides présentes au domicile adjoint de mises en situation imaginées.
79 des Dynamiques
du Production du schéma Permanence du Confrontation sur peuplement, des général de la mobilité savoir-faire au-delà occurrences l'incertitude et la relation formes urbaines et quotidienne des évolutions aux TIC et à la mobilité des mobilités dans conjoncturelles physique les territoires de la périurbanisation Scénario de hausse des carburants permettant de (2012-2014) compléter le schéma général du savoir-faire automobile Systèmes complexes, Intelligence territoriale, Mobilité (2014-2019) - Electromobilité : - Electromobilité : - Electromobilité Confrontation des parties de l'entretien des professionnels consacrées aux discours et aux actions Représentations des Personnes interviewées en tant qu'acteurs avérés ou dispositifs d'électromobilité et potentiels. Approche des interactions n'est pas une rôle à tenir en leur fin en soi ce stade dans sein l'étude. - Télétravail à partiel : temps - Télétravail à temps partiel : Des outils informatiques Reconfiguration et numériques dont routines l'usage est encouragé dans diverses formes de travail à distance sauf pour la mise en place du télétravail à temps partiel Publicités Posture exprimée par automobiles (2016- des dirigeants des 2017) constructeurs automobiles rejetant le déterminisme technique et, en lien, les ressorts de la notion du rêve utilisée par les publicitaires concernant l'automobile des Savoir-faire et dimensions culturelles des objets techniques associées Mise en évidence du réseau, de la position des acteurs, de recommandation selon le principe de la sociologie des organisations et de la sociologie du changement Télétravail à partiel : temps Motivation de la mobilité résidentielle, quotidienne sur les jours travaillés sur site et ceux télétravaillés avec l'hypothèse de la banalisation du télétravail (Sajous, 2019b) Démonstration que le rapport à l'espace est géré dans les publicités sur le principe du savoir-faire automobile * : définitions détaillées dans le chapitre 4. Source : Sajous P., 2020 Le tableau 4 montre que la boucle de rejet du déterminisme est aussi la boucle d'admission des interactions individus – objets techniques (RTM ici). L'ensemble des éléments détaillés dans le tableau est l'image en positif du rejet du déterminisme technique préalable (le déterminisme en serait le négatif photographique). Prenons l'exemple de l'établissement d'un cahier des charges d'une voiture périurbaine. La voiture n'est pas simplement vue comme un mode de transport mais un mode de 80 mobilité. A partir de là, on rentre dans le descriptif de l'accommodement qui est à la fois une manière de travailler la matière automobile, de domestiquer ce cheval de fer comme de travailler la matière spatiale, de lui donner une forme à l aune des obligations, des libertés, des contraintes, des caractéristiques socio-démographiques, etc., des individus. Tout en relevant de grandes catégories, le résultat ne ressemble à aucun autre, n'appartenant qu'à l'individu. D'un point de vue descriptif, figure dans ce tableau, pour chaque étude, ce qui a été le point d'ancrage du rejet du déterminisme. Au regard de cela, la restitution méthodologique du principe d'admission des interactions individus – objets techniques s'organise en deux sous-colonnes. La méthode qualitative apparaît comme particulièrement pertinente pour saisir les formes d'interaction, en développant tout un panel technique. Les thèmes choisis comme les modalités de passation présentés ne doivent rien au hasard, objets d'une attention particulière, sachant que l'usage des réseaux techniques prédispose à l'incorporation des gestes qui après intégration, seront reproduits la plupart du temps par habitude. Plusieurs aspects techniques sont en jeu derrière ce tableau au premier titre desquels un travail sur les conditions de passation. Ces conditions connaissent une impulsion novatrice avec les travaux sur l'éclairage public (NumeLiTe, Orus, LED Ville). Cette impulsion nait de la nécessité de prendre en compte les limites à de deux composantes corporelles que sont la perception visuelle et la quasi inexistence de la mémoire visuelle chez l'être humain. Il s'agit alors de dépasser les limites de ces dispositifs corporels, persuadée qu'ils n'empêchent pas les individus de se livrer, si les conditions sont réunies pour contourner ces difficultés. Autrement dit, il s'agit de ne pas déduire d'une mémoire visuelle défaillante, qu'il n'y a pas de conscience ou d'intérêt chez les individus pour l'éclairage public concernant la vision. C'est malheureusement ce que l'on constate dans le milieu opérationnel en les confinant à des enquêtes sur la satisfaction, en plaçant donc la compétence reconnue sur l'esthétique. Cette démarche nous a conduit bien plus loin que le dépassement factuel des deux limites corporelles. Tout se passe comme si cela nous avait ouvert les portes d'un autre monde. C'est là que nous avons mieux saisi la dimension épistémologique des méthodes. Dans la pratique nous ne sommes sans doute pas allée assez loin mais la vérification permise d'un principe d'association plutôt que d'une opposition des appareils sensitif et cognitif va constituer un tournant dans la considération de l'individu, son corps. Tout se passe comme si l'élaboration de la phase de passation dans le protocole devait permettre la possibilité à cette continuité sensitif – cognitif de s'exprimer, de voir la coordination entre les deux. Marcher, conduire, s'arrêter, être plus ou moins dans la lumière ou l'obscurité en même temps que l'on échange sur cette situation sont les garants de l'existence, le temps de l'entretien, de cette continuité que l'on veut observer selon les termes de la question de recherche posée dans les études. D'un point de vue technique, la mise en oeuvre de ces actions simples, banales est d'une complexité qu'il ne faut pas négliger si on veut être dans un cadre scientifique valide. 81 Arrêtons-nous un instant sur l'usage du dispositif de réalité virtuelle. Un enquêté prend place dans une voiture, devant un grand écran reproduisant à l'échelle 1 un secteur autoroutier. Ce recours à la réalité virtuelle pose de manière accrue les questions de perception, la capacité de faire coïncider au maximum la situation avec une situation réelle. Mais, elle ouvre aussi le champ à la possibilité de recueillir un échange n'ayant à peu près aucune chance de pouvoir se tenir en condition réelle. Le fait d'avoir pu expérimenter ce schéma de passation (CPES, simulation) a indubitablement gravé en nous une mémoire méthodologique qui reste active. Nous insistons en disant qu'en tant que chercheuse « en première ligne » (Mucchieli, 2006), cette mémoire n'est pas que cognitive mais une incorporation de l'observation de cette association sensitif - cognitif chez les enquêtés. C'est le fait de la ressentir86 au moment des entretiens ou de leur prise de connaissance, quand nous ne sommes pas enquêtrice. Le recours au scénario est une autre forme de tentative pour s'approcher des conditions de passation de l'association sensitif - cognitif. Ce scénario peut être plus ou moins élaboré dans sa construction sémantique mais il engage aussi des lieux précis, des usages. Ce recours au scénario renvoie aux enquêtes de préférence déclarée amenant à « adopter une perspective ex-ante et à s'appuyer sur les intentions d'adopter tel ou tel comportement et ont pour objectif l'estimation (maximisation) de fonctions d'utilité » (Calzada, 1999). Reprenant la typologie dressée par M. Lee-Gosselin (1995) et rapportée par C. Calzada, nos scénarios ont porté sur l'adaptation à des contraintes fortes, avec la possibilité d'advenir dans un temporel lointain. Le résultat nous paraît cependant moins satisfaisant pour l'expression de l'association que la mise en situation matérielle. Pour terminer sur les considérations techniques, donnons des indications sur les aspects techniques de traitement et l'analyse. Le traitement des données passe dans un premier temps par la retranscription de l'entretien. A partir de cette retranscription, nous pouvons décider de développer des bases de données sur tout ou partie de l'entretien pour procéder au traitement. Dans cette phase, nous avons aussi pu avoir recours au logiciel Alceste qui aboutit à une visualisation intéressante par graphiques des associations de termes87. Les entretiens semi-directifs ayant un certain degré de profondeur et de complexité, ils conviennent « à l'étude de l'implicite » (Van Campenhoudt at al., 2017). 82 techniques ». Le premier principe invite à s'intéresser au second à partir de circonstances d'usage où se dessine l'accommodement. Cet accommodement se décline en faits de domestication. Ce sont ces trois notions que nous identifions pour rendre compte d'une interaction dans sa dimension individuelle et subjective. Nous avons déployé des méthodes de CPES et de recours au scénario au regard de ces notions afin de préserver l'association sensitif - cognitif. La CPES dans ce cadre a eu un effet tout à fait révélateur sur la prise en compte des pratiques mais aussi sur l'engagement corporel derrière toute parole qu'elle soit captée avec les actes ou pas. Nous avons pu dire que le fait de voir la parole associée aux actes a inscrit en nous une mémoire méthodologique. Dans ce cadre, l'analyse de discours est la forme principale du travail d'interprétation. 3.2.2. Retour d'expérience
Entre dimensions épistémologique, théorique et technique du cadre méthodologique, l'avantage que nous reconnaissons à cet ensemble réside dans la capacité de circuler entre les principes théoriques (3.1), l'ancrage dans l'épistémologie de la méthode et les déclinaisons techniques. L'approche qualitative a permis de nous positionner là où nous le souhaitions dans les discours et dans les pratiques des individus - acteurs. C'est-à-dire au moment où le quotidien livre sa part d'espace entre classicisme de certains aspects et originalité de la mise en place du vécu. A cet instant, c'est comme si l'enquêté était artisan, expliquant – et montrant quand la passation s'y prête - un travail demandant une certaine dextérité, des actions rapides, et parfois très lentes, avec des retouches possibles. On prend alors connaissance de l'ensemble des éléments rassemblés, des dosages respectés, des méthodes utilisées. C'est donc à l'artisanat de la dimension géographique que nous accédons. Nous employons ce terme d'artisanat pour souligner la singularité qui peut être rencontrée. Le métier n'est pas rare mais on perçoit bien que chacun a plus ou moins d'ancienneté, de goût, de « trucs et astuces ». C'est donc à chaque fois vers une découverte de cette singularité du travail géographique que nous tournons nos pas. Le travail documentaire préalable, l'échantillon sont ensuite là pour jauger des tendances, pour ramener cet artisanat et le mettre en dialogue avec un ensemble déjà constitué de connaissances et réflexions. Parfois, il y prend place sans originalité ou bien il le complète ou encore, il le remet en cause. Mais ce premier ensemble ne peut totalement nous satisfaire et nous reviendrons pour clore section à l'image de la chercheuse « en première ligne » (Mucchieli, 2006) devant à chaque nouveau projet reprendre la réflexion sur les aspects méthodologiques. Aussi, nous voyons des pistes à approfondir. Nous avons décrit le travail sur les conditions de passation comme révélatrices d'une attention à donner au corps des individus dans l'analyse des interactions individus – objets techniques. Cette attention est présente et comme nous l'avons dit, constitue une forme de mémoire. Nous mentionnons ici la nécessité d'aller plus loin dans la présence et l'attention au corps. Ce point dépasse une considération de méthode et sera repris et détaillé au chapitre 6 où nous présentons des orientations de travail que nous comptons structurer autour du thème du corps. Sans en avoir encore totalement les clés, et parce que nous avons mentionné que la sortie du positivisme a été progressive dans notre propre cheminement réflexif, il est évident que certaines études en portent les traits techniques, au moins. Le travail de remise en perspective inhérent à l'exercice de l'HDR permet de prendre aussi conscience que nous avons hésité à assumer cette position de mise à distance du positivisme. En nous retournant sur l'ensemble de la trame de nos pratiques, nous observons que certains éléments se sont mis en place d'emblée, d'autres se sont construits plus progressivement voire sont toujours en cours. 83 La méthode qualitative par entretien semi-directif s'est imposée dès le départ en lien avec la dimension épistémologique rappelée et le cadre théorique. La question de l'échantillon raisonné s'est construite de façon un peu plus progressive par une attention de plus en plus accrue aux profils d'individus – acteurs à enquêter. Nous avons en effet pris conscience d'un intérêt à travailler certes, sur des profils caractéristiques mais aussi à convoquer des profils permettant de travailler également en creux le sujet. C'est par exemple avec cette idée que nous avons intégré un profil de non-résident dans l'enquête NumeLiTe ou que l'analyse du télétravail s'est portée sur les télétravailleurs à temps complet en milieu rural. Ces situations extrêmes sont comme des groupes témoins par rapport aux autres, mais dont les motivations, les actes foisonnants, dans un territoire se confondant avec le périmètre d'enquête, rendent parfois difficile d'évaluer une entrée explicative. Enfin, le format dit exploratoire (comme suggéré en 3.1.1) est une question toujours en chantier. Sous cette formulation technique, le recours à la dénomination d'explor est sans doute à interroger comme un stigmate d'une position de recherche qui cherche encore à se justifier par l'extérieur, en vis-à-vis de la méthode quantitative, qui n'a pas complètement coupé avec le positivisme. Est-ce d'ailleurs possible si on veut publier dans les revues francophones par exemple, où il s'agit de se situer sur un spectre méthodologique par rapport à cette méthode? Pouvoir avancer le fait d'être dans une démarche exploratoire a pu aussi aider à supporter le risque : face au caractère original des propositions de recherche (NumeLiTe, XTerM), d'investissement financier (aussi modeste soit-il) des commanditaires pour mettre techniquement en place l'enquête (FDCE 04). Il faut donc se construire dans cet entre-deux. 84 Conclusion du chapitre 3
Dans ce chapitre nous avons entamé la présentation de notre expérience scientifique suite aux chapitres 1 et 2, étayant la possibilité de travailler sur la dimension géographique des RTM ou autrement dit, le rôle des RTM dans la construction de l'espace des individus au corps augmenté. Nous avons produit dans ce chapitre un premier ensemble de résultats montrant la traduction en cadres conceptuel et méthodologique des apports recensés aux chapitres précédents. Cette traduction demandera encore du travail comme nous venons de l'évoquer juste avant. Fig. 10. Résultats présentés au chapitre 3 Cadres conceptuel et méthodologique selon 4 principes : • •
•
• Mise
à
distance du positivisme Mise à distance de l'idée d'uniformisation des sociétés par les objets techniques Rejet du déterminisme technique Inter
action
Individu – Objet
s techniques La figure 10 synthétise les apports du chapitre 3 en rappelant les quatre principes que nous avons établis : mise à distance du positivisme, rejet du déterminisme technique, admission des interactions individus – objets techniques, relativisation de l'uniformisation. Ces principes ont vocation à porter les aspects conceptuel comme méthodologique de l'approche développée sur la question de la relation Individu – Réseau technique – Mobilité. Cela est synthétisé dans le tableau 5. La mise à distance du positivisme est opérée selon l'approche de l'individu – acteur ; ce qui amène à penser l'entretien, dès sa conceptualisation et sa conception, comme une plateforme. Pour la mise à distance de l'idée d'uniformisation des sociétés par les objets techniques, nous nous plaçons dans une perspective de renversement de l'entrée classique de la géographie culturelle en considérant que femmes et hommes, du fait de leur mobilité, vont vers les objets techniques. Il faut dès lors s'intéresser, lors des entretiens, aux catégories spatiales diverses dont le nombre, les combinaisons sont propres à chaque individu. Pour les principes de rejet du déterminisme technique et d'interaction individus – objets techniques, la nécessité de les traiter de pair a été montrée. Opérer de la sorte permet à nos yeux de mieux apprécier le champ de connaissance s'ouvrant, selon un double mouvement, d'une part, d'attention à la déconstruction du déterminisme technique et, d'autre part, d'analyse de la construction du rapport en termes d'interactions. L'intention est la même sur le plan méthodologique où l'analyse de la domestication repose d'abord sur la conscience d'une relation non pas directe entre RTM et usage via des solutions techniques intégrées aux premiers pour répondre à des fonctions spatiales mais une relation circulaire intégrant aussi des phases d'accommodement et de circonstances d'usage. Une analyse sous des aspects non-utilitaristes et avec des références à la géographie incarnée est fondamentale pour identifier les faits de domestication. 85 Tab. 5. Synthèse des cadres conceptuel et méthodologique des quatre principes
Principes Cadre mét
hod
ologique de l'approche qualitative Traits épi
s
tém
ologiques
théoriques Aspects et techniques Avoir une plateforme, support d'une approche compréhensive et du déploiement de la parole Mise à distance de l'idée d'uniformisation des sociétés par les objets techniques Prise en compte chez l'individu-acteur d'un parcours biographique construit en référence à un nombre non définissable de catégories spatiales Renouvellement des péri
mètres La domestication, levier d'analyse du sens donné à l'inscription spatiale : Approche circulaire mettant en évidence l'existence d'accommodements et circonstance(s) d'usage outre les considérations matérielles à l'inscription spatiale Passation recourant à la CPES, la réalité virtuelle, les scénarios Femmes et hommes, du fait de leur mobilité, vont vers les objets techniques. Ce renversement de la proposition classique incite à réinterroger l'idée d'objets techniques moteurs de l'uniformisation culturelle. Rejet du Périmètre de réflexion déterminisme faisant place à une analyse technique des usages dans leur nonrationalité ou du moins, dans une logique d'usage ne répondant pas au référentiel utilitariste Interaction Relation individus - espace Individus – Objets par l'intermédiaire des RTM techniques avec implication du corps en interface. Cela associe une approche reposant conjointement sur la géographie incarnée (Barthe-Deloizy, 2011) et l'incorporation technique (Warnier, 1999).
| 17,640
|
2ab2865d8287cc56173307fb153f2344_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,006
|
Criminologie, hygiénisme et eugénisme en France (1870-1914)
|
None
|
French
|
Spoken
| 7,016
| 11,753
|
2.2. « La politique du débarras » (Charles Lucas):
vers la transportation
Retour à la table des matières
Au lendemain de la Commune de Paris, les hommes politiques en
place — républicains comme légitimistes — ont peur. Le thème de
« l'armée du crime », de la foule des vagabonds ivres de violence (et d'alcool), prête à submerger l'ordre social, est omniprésent. La lutte non plus
contre la récidive mais contre les récidivistes — évolution décisive — est
à l'ordre du jour. Dans l'enquête qu'ils lancent auprès des magistrats en
1872, les parlementaires posent ainsi pour la première fois la question :
« La transportation doit-elle être appliquée seulement aux condamnés aux
travaux forcés ou également aux récidivistes ? » (Schnapper, 1983, 44).
Une fois l'orage passé, les partisans de la prison cellulaire vont pourtant
l'emporter dans la commission formée l'année suivante pour préparer ce
qui deviendra la loi du 5 juin 1875 (Badinter, 1992, 41sqq). Mais très vite
le rêve cellulaire se heurte à l'éternel obstacle de son coût rédhibitoire, et
la lutte contre la récidive demeure la préoccupation centrale des pénalis-
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 22
tes. A peine fondée en 1877, la Société générale des prisons met aussitôt
ce problème à l'ordre du jour et pose à son tour la question de la « déportation » ou « transportation » des récidivistes (Kaluszunski, 1996, 80). Et
ses partisans allaient enfin triompher au grand jour grâce à la volonté politique... des nouveaux républicains. En effet, l'ordre moral et social est
un élément clef du programme de gouvernement des républicains emmenés par Gambetta 10 . Aussi, fondé à la fois sur la certitude de l'incorrigibilité de certains criminels et sur l'intérêt électoral de cette mesure sécuritaire, le nouveau projet de lutte contre les récidivistes est défendu très tôt
par deux proches de Gambetta : Reinach et Waldeck-Rousseau (Wright,
1983, 143sqq ; Badinter, 1992, 111sqq). En 1882, tandis que le premier
publie son livre sur « l'ennemi récidiviste » (Reinach, 1882), le second —
promu ministre de l'Intérieur dans le nouveau gouvernement — dépose le
projet de loi sur la transportation. Les gambettistes reçoivent alors des
soutiens médicaux très importants.
En 1881, dans sa leçon d'ouverture à la chaire de médecine légale de
la Faculté de médecine de Lyon, Lacassagne soutenait par avance un projet qu'il connaissait bien. Cet ami d'enfance de Gambetta, membre de la
Société positiviste (Kaluszunski, 1988, 165-167), opportuniste en science
comme Gambetta le fut en politique, expliquait les causes cérébrales de
la criminalité. Il concluait son cours par un éloge de médecin et de sa
responsabilité dans la société, responsabilité qu'il assumait immédiatement en écrivant : « A l'heure actuelle, ce seront encore des médecins qui
montreront aux magistrats qu'il y a parmi les criminels des incorrigibles,
des individus organiquement mauvais et défectueux, et obtiendront non
seulement leur incarcération [...], mais leur déportation dans un endroit
isolé, loin de notre société actuelle trop avancée pour eux » (Lacassagne,
1881, 684). En bon hygiéniste, il prévenait même les septiques que,
« Tant que cette sélection ne sera pas faite, nous couverons et élèverons,
pour ainsi dire, le crime en serre chaude, et on verra augmenter les deux
grandes plaies sociales modernes qui sont les dérivatifs de la criminalité :
le suicide et la prostitution » (ibid., 684).
10
À bien des égards, le mouvement pénal dont nous parlons n'est qu'un aspect de cet
ordre moral républicain qui, contrairement à une certaine légende dorée, se souciait peu des difficultés de l'exercice concret des libertés individuelles (Machelon,
1976).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 23
Le projet de Gambetta reçoit ensuite le soutien Émile Yvernés (18301899), juriste et statisticien de renom, directeur de la statistique judiciaire
au ministère de la Justice, qui publie en 1882 dans le Compte général de
l'administration de la justice criminelle une importante rétrospective portant sur les années 1826-1880 11 . A son tour, Yvernés attire toute l'attention sur les récidivistes : « La partie du compte général de la justice criminelle qui traite de la récidive est, sans contredit, la plus importante ;
car elle révèle l'inefficacité de la répression et l'insuffisance des peines au
point de vue moralisateur ; elle met en lumière, d'une façon saisissante,
l'extension d'une plaie sociale contre laquelle sont, en ce moment, coalisés tous les efforts des moralistes et des jurisconsultes » (Yvernés, 1882,
LXXXIII). Dénonçant l'« excessive indulgence » des juges, il estime que
« l'urgence d'une répression énergique à l'égard des récidivistes incorrigibles est donc manifeste » (ibid., LXXXIX). Se référant à la loi de 1854, il
argumente alors longuement la nécessité de la transportation pour ces
incorrigibles :
« Que faire pour arrêter le flot toujours montant de la criminalité ? Il est évident que la perversité innée de beaucoup de malfaiteurs résistera toujours aux
mesures que l'on pourra prendre ; le remords leur est inconnu ; mais un grand
nombre de délinquants ne sont pas rebelles à tout amendement. Le remède, cela est certain, ne peut pas être le même pour les uns et pour les autres. Les
premiers doivent, avant tout, être mis dans l'impossibilité de nuire ; les seconds ont besoin d'être placés, pendant l'exécution des peines, dans des conditions favorables à leur amélioration morale. [...] Quant aux vagabonds et aux
voleurs incorrigibles, étrangers à tout travail, ne vivant que d'aumônes et de
rapines, et qu'il faut renoncer à amender, le moment semble venu d'examiner
si cette situation ne devrait pas être considérée comme une circonstance aggravante et entraîner pour eux la peine de transportation, quand ils sont poursuivis pour des crimes et des délits d'ordre public » (ibid., XCII-XCIII). La récidive « cédera, il n'en faut pas douter, devant la loi de transportation demandée au Parlement contre ces malfaiteurs qui, par leur vie criminelle, prouvent
qu'ils sont et resteront les ennemis de tout ordre social » (ibid., CXXXI).
La statistique avait tranché et confirmait tant le diagnostic que les remèdes recommandés par la science médicale ; le ministre pouvait
conclure. Le 22 avril 1883, s'adressant à la Chambre, Waldeck-Rousseau
oppose le délinquant occasionnel « dont on peut avoir pitié » au récidi11
Le texte du Compte général est signé par le garde des sceaux de l'époque, mais on
sait qu'Yvernès en est le véritable auteur (Perrot, Robert, 1989, 8 sqq).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 24
viste : « toutes les peines s'émoussent sur sa perversité et se heurtent dans
sa personne à ce que j'appellerais volontiers une véritable exception sociale ». L'essentiel arrive : « Existe-t-il des incorrigibles ? C'est la question que pose le projet de loi actuel ». Et la conclusion est fatale : seule la
transportation peut protéger la société de ces « hommes qui ont montré
que toutes les peines ne peuvent avoir raison de leur perversité naturelle »
(cité par Badinter, 1992, 130-131). Ainsi est-ce à très juste titre que B.
Schnapper (1983, 55) écrit que la loi sur la transportation des récidivistes
— votée définitivement le 12 mai 1885 par 385 voix contre 52 — établissait en quelque sorte une « présomption d'incorrigibilité ». De fait, à côté
de l'argument du coût matériel, c'est bien celui de l'incorrigibilité qui fut
régulièrement opposé aux partisans de l'amendement par l'emprisonnement cellulaire (Schnapper, 1979, 236).
La loi de 1885 fut largement appliquée. Moins de douze ans après son
entrée en vigueur, l'ancien Procureur et nouveau député de l'Ain, Bérard
(1897), rapportait qu'elle avait permis d'écarter du territoire métropolitain
quelques 4 000 individus dangereux, chiffre à ses yeux tout à fait insuffisant mais néanmoins significatif d'une réaction « salutaire » face à « l'indulgence déplorable » des tribunaux. Pour autant, même systématisée
encore davantage, la relégation ne convainquait pas tout le monde. Partisan de l'emprisonnement cellulaire en toute situation, le directeur de la
prison correctionnelle de Lyon estimait ainsi qu'« il est absolument démontré, par des observations répétées, que la menace de la transportation
n'a que peu d'effet sur la grande majorité des condamnées aux travaux
forcés » (Raux, 1896, 605). Elle serait même plutôt vue comme un moindre mal par les grands criminels. Mais dès lors l'argument pouvait être
encore plus aisément utilisé pour réclamer une application plus générale
de la peine de mort. De fait, le débat ne cessa de rebondir tout au long de
la période que nous étudions.
2.3. Le principe de la peine de mort
Retour à la table des matières
Les criminologues férus d'histoire ont longtemps entretenu l'image
d'une criminologie italienne partisane de la peine de mort, par opposition
à la quasi totalité du reste de la criminologie européenne. Une fois en-
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 25
core, au moins en ce qui concerne la France, cette image n'est pas fidèle à
la réalité historique.
Que faire de ces êtres féroces et dénués de tout sens moral, baptisés
« criminels-nés » ? Les positions de Lombroso ont évolué dans le temps,
notamment sous l'influence de ses amis (au premier rang desquels le magistrat et militant socialiste Enrico Ferri). Toutefois, tout en réclamant
d'une part, avec ce dernier, la généralisation de peines de substitution à la
prison pour les petits délinquants, d'autre part, après bien des médecins
français, la création de véritables asiles pour les criminels aliénés, Lombroso restera toujours partisan de l'élimination physique pour le noyau
dur des criminels-nés incorrigibles. Dans son ouvrage sur Les causes et
les remèdes du crime, il distingue, au sein des « incorrigibles », deux catégories d'individus et de traitements. Pour la première, plus docile, la
« déportation » (sur le modèle français) lui semble suffisante et, qui plus
est, intéressante pour la collectivité car pouvant fournir une main d'oeuvre gratuite pour les travaux les plus pénibles (Lombroso, 1907, 516517). Mais cela ne saurait suffire : « lorsque, malgré la prison, la déportation, le travail forcé, ces criminels réitèrent leurs crimes sanguinaires et
menacent pour la troisième ou quatrième fois la vie des honnêtes gens —
il ne reste plus alors que l'extrême sélection, douloureuse mais certaine,
de la peine de mort » (ibid., 518 ; nous soulignons). Insistons sur le fait
qu'il ne s'agit à aucun moment de déterminer une peine. Comme la plupart de ses collègues, Lombroso ne croît ni à sa valeur réparatrice pour
l'opinion publique, ni à sa valeur dissuasive pour les autres criminels
(ibid., 519). Donner la mort aux criminels incorrigibles n'est rien d'autre,
à ses yeux, que défendre la société en appliquant la loi de la sélection naturelle à des êtres qui ne diffèrent en rien des animaux :
« La peine de mort n'est hélas ! que trop écrite dans le livre de la nature, elle
l'est aussi dans celui de l'histoire ; [...] le progrès du monde organique est entièrement fondé sur la lutte pour l'existence suivie de féroces hécatombes. Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 26
Ainsi, dénonçant en permanence le laxisme des « vieux juristes »,
c'est bien déjà un raisonnement eugéniste que poursuit Lombroso en proposant de « purger la prison de ces criminels, qui en glorifiant le vice, y
rendent impossible toute tentative d'amendement ; on appliquerait ainsi
de nouveau à la société ce procédé de sélection auquel est due l'existence
de notre race, et aussi probablement de la justice elle-même, qui prévalut
peu à peu à la suite de l'élimination des plus violents » ( ibid., 517).
Cette argumentation, nous l’avons déjà dit, sera toujours activement
combattue par une minorité de juristes spiritualistes 12 . Mais, au sein de la
communauté médicale française, la position de Lombroso sera davantage
nuancée que contestée, quand elle ne sera pas pleinement partagée. Sans
doute faut-il introduire ici une périodisation. En effet, au lendemain de
l'adoption de la loi de 1885, les attentes répressives ou les inquiétudes de
beaucoup de savants Français étaient largement comblées. Aussi ceux-là
pouvaient-ils déclarer avec Tarde que, même légitimée en droit par le
principe de la défense sociale et en fait par le constat de l'incorrigibilité
des grands criminels, « la peine de mort, du moins telle qu'elle est ou a
été pratiquée, me répugne, elle me répugne invinciblement. J'ai longtemps essayer de surmonter ce sentiment d'horreur, je n'ai pu » (Tarde,
1890, 559 ; nous soulignons). Cet argument qu'il reconnaissait être plus
« sentimental », « esthétique » voire « religieux » que rationnel, emportait alors de nombreuses adhésions soulagées, comme par exemple celle
de son ami le docteur Armand Corre (1891, 103) 13 . Mais comme l'argument était fragile ! Que change le climat socio-politique, et la nécessité
redeviendra vertu. Que change le moyen d'exécution, qu'il se fasse propre
12
13
N'en déduisons pas, toutefois, que les positions spiritualistes menaient nécessairement à cette opposition. Le spiritualisme d'Henri Joly – l'un des spécialistes du
crime les plus connus à l'époque – l'amenait par exemple à soutenir au contraire le
principe de la peine capitale pour « un petit nombre de scélérats déshumanisés par
leur faute ». Il croyait de surcroît à son caractère exemplaire et rédempteur : « il
ne me déplairait pas, je l'avoue, que des centaines de prisonniers y assistasses à
genoux » (Joly, 1891, 334 et 335).
À cette époque, Lacassagne a, à notre connaissance, évité de prendre directement
part au débat. Il laisse toutefois Henri Coutagne, son principal collaborateur du
moment, intervenir vigoureusement dans les Archives par le biais d'un compte
rendu favorable à un plaidoyer pour la décapitation : « Il nous appartient de réagir au nom de la science, contre les dissertations creuses d'une pseudo philanthropie qui s'étale volontiers, dans les grands journaux, à propos de toute exécution capitale quelque peu retentissante » (Coutagne, 1889, 126).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 27
pour le spectateur et indolore pour le condamné, et le fait n'heurtera plus
la sensibilité. Vérifions ces deux propositions.
Que change le climat socio-politique, et la nécessité redeviendra vertu. Une quinzaine d'années après avoir soutenu les réserves « sentimentales » de Tarde, Corre est une nouvelle fois amené à prendre position sur
la peine de mort. L'occasion lui est donnée par le Garde des Sceaux
Guyot-Dessaigne qui, à la fin de l’année 1906, dépose un nouveau projet
de loi sur l'abolition de cette peine. Les passions de déchaînent. Et la position de Corre est cette fois diamétralement opposée. Il prend fortement
parti pour la peine capitale en dénonçant violemment « un courant de
niaise et horripilante sensiblerie, de divagations intellectualistes, de théories soi-disant philosophiques et scientifiques formées dans l'isolement du
cabinet, au coup de fouet de vanités et de calcul d'arrivisme, [qui] s'est
crée chez nous. Il déborde d'apitoyance, mais surtout à l'égard des gens
qui méritent le moins la pitié » (Corre, 1908, 231). Opportuniste comme
à son habitude, Lacassagne adopte une attitude plus posée mais non
moins résolue. Se démarquant d'un débat animé seulement par des
« hommes d'États, sociologues et législateur », il entend apporter le point
de vue des médecins et autres « criminalistes qui basent sur des études
scientifiques leurs connaissances et leurs affirmations » (Lacassagne,
1908a, 57). Or ceux-là seuls, dont il se veut naturellement le porte-parole,
proposent non pas « de belles pages de philosophie, des effets oratoires
saisissants » mais « des preuves décisives, qui fixent et arrêtent l'esprit
désireux de pure logique et décidé à ne point se payer de mots » (ibid.).
Inconscient du caractère pour le moins « saisissant » de sa formule, Lacassagne s'insurge : « on s'inquiète peu de savoir si la science considère
la décapitation comme un mal nécessaire, et le bourreau comme un chirurgien dont les ulcères de notre civilisation et la gangrène de nos vices
ne peuvent se passer » (ibid., 59) 14 . Sa position personnelle sera claire :
la décapitation étant trop sanguinaire et engendrant des réflexes visibles
sur la tête quelques secondes après sa chute, il préconisera la pendaison
« à l'anglaise », à huit clos, dans les prisons (Lacassagne, 1908b, 179).
14
Au nombre des célèbres aphorismes de Lacassagne, on ajoutera également celuici : « Terminons par cette sentence de Salomon : les grands maux se guérissent
par des meurtrissures livides et par les plaies les plus profondes » (Lacassagne,
1911, 46).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 28
La même année, dans un ouvrage préfacé par Lacassagne, le docteur
Emile Laurent sera moins nuancé. Citant longuement le manifeste pour
un darwinisme social que fut la préface de Clémence Royer à la première
traduction de L'origine des espèces (1862), reprenant à son compte l'expression de « criminel-né » de Lombroso et s'accordant avec Garofalo
pour préférer la mort à la déportation à vie (Laurent, 1908, 237-241), ce
médecin conclura :
« Quand votre chien que vous aimez devient enragé, vous le tuez, quoi que cet
acte cruel vous coûte. Mais vous le tuez pour vous mettre à l'abri des morsures
et lui épargner d'inutiles souffrances. Et puis, tout autour de vous, la nature,
sur une immense échelle, en ses hécatombes de faibles et de vaincus, par ses
intempéries, ses famines, par la griffe et la dent de ses carnassiers qui lui servent de bourreaux, applique la peine de mort. Tue-les ! dit la nature à la société. Tue-les ! dit le passé de l'humanité au présent par les cent voix de l'histoire.
Mais si on les tue, qu'on les tue proprement » (Laurent, 1908, 242).
Que change le moyen d'exécution, qu'il se fasse plus propre pour le
spectateur et moins douloureux pour le condamné, et le fait n'heurtera
plus la sensibilité. C'est la deuxième proposition qu'il nous faut vérifier.
2.4. Les techniques de la peine de mort:
des solutions plus propres
Retour à la table des matières
Dans le chapitre déjà cité de sa Philosophie pénale, dont on n’a longtemps retenu que la prise position contre la peine de mort, Tarde prévenait que la mise au point de techniques plus douces – il songeait en l'occurrence à l'électrocution – pour éliminer les incorrigibles pourrait emporter son adhésion : « le jour où ce progrès, mince en apparence, serait
réalisé, la plus grande objection contre la peine de mort, à savoir la répugnance qu'elle soulève, s'évanouirait » (Tarde, 1890, 569) 15 . De fait, à
15
Ce sont notamment des juristes belges (Maus, Thiry) et hollandais (Van Hamel,
membre influent de l'Union internationale de droit pénal créée trois ans auparavant), participant au troisième congrès international d'anthropologie criminelle, à
Bruxelles en 1892, qui utilisèrent le nom alors prestigieux de Tarde dans leur opposition de principe à la peine de mort. Or, en réalité, dès le précédent congrès
(Paris, 1889), Tarde avait approuvé « l'élimination par la mort la plus douce et la
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 29
cette date, on débat sur l'efficacité et – parfois – l'humanité de ces techniques depuis plusieurs années.
En 1886, La Société Générale des Prisons lançait une enquête sur les
techniques de la peine de mort en Occident. L'inventaire des solutions de
l'époque fait apparaître un partage entre la pendaison (utilisée en Angleterre, en Autriche, en Belgique avant l'abolition, en Espagne par strangulation, aux États-Unis, en Russie) et la décapitation par la guillotine (utilisée en France, en Grèce, dans la majeure parti de l'Italie et dans les cantons suisses appliquant la peine de mort) ou bien carrément à la hache (en
Allemagne, au Danemark, en Finlande, en Norvège et en Suède). Les
discussions sur les mérites comparés des différentes solutions allaient se
prolonger durant de nombreuses années.
La guillotine trouvera toujours en France d'ardents partisans, mais
aussi des détracteurs mettant notamment en avant la possibilité d'une sensibilité voire d'une conscience se prolongeant un bref instant après la décapitation. Le débat fera rage notamment à l'Académie des Sciences et à
la Société de Biologie au milieu des années 1880 16 . Personnage important dans ce débat, le docteur Paul Loye – ancien préparateur de Paul Bert
pour le cours de physiologie de la Sorbonne et actuel préparateur de Paul
Brouardel pour celui de médecine légale de la Faculté de médecine de
Paris – publie en 1888 le résultat de ses recherches sur les effets immédiats de la décapitation. Il a d'une part longuement expérimenté le fait sur
des chiens, d'autre part observé de nombreuses exécutions capitales et
tenté des expériences sur les têtes coupées. Ses résultats montrent selon
lui – et selon son préfacier, Brouardel en personne – sans aucune ambiguïté que l'arrêt de toute sensibilité est instantanée et que le procédé est
donc préférable à la pendaison ou à la strangulation. Il en conclut fièrement : « Que les moralistes et les philanthropes se rassurent : le supplice
de la décapitation ne peut pas être un supplice douloureux » (Loye, 1888,
277).
16
plus prompte » d'« un résidu de malfaiteurs incorrigibles, de vrais monstres antisociaux » (Tarde, 1889, 104).
Le célèbre professeur de médecine, devenu ministre de la République, et président
en exercice de la Société de biologie, Paul Bert fera en effet connaître avec fracas
(dans la presse) son opposition que nous dirions aujourd’hui « éthique » à ce
genre d’expérimentations sur les cadavres des condamnés (Raichvarg, 1992).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 30
Le débat restait cependant ouvert autour d'une nouvelle technique :
l'électrocution. En France, ce procédé jugé moins sanguinaire avait fait
l'objet d'une proposition de loi au Sénat dès 1884. Mais quatre ans plus
tard, c'est l'État de New York qui l’instaurait. Dès 1890, Tarde notait
l'engouement général pour cette technique (Tarde, 1890, 536). En 1892,
Lacassagne se penche à son tour sur la question. Il semble fasciné par les
recherches américaines, notamment celle du docteur M. D. Mount Bleyer
(Best method of capital punishment, 1885). Il relève aussi en passant que
certains préconisent « des procédés des plus bizarres ; c'est ainsi que le
professeur Packard (de Philadelphie) proposait la respiration de l'oxyde
de carbone dans une chambre spéciale, pour amener une mort sans souffrance, et que le docteur Ward Richardson (de Londres) donnait l'idée
d'une cellule où le condamné aurait respiré les vapeurs d'un anesthésique
jusqu'à ce que la mort arrivât » (Lacassagne, 1892, 433). Mais c'est bien
l'électrocution qui lui paraissait l'alternative la plus crédible à la guillotine. Testée d'abord sur des chiens, des chevaux et des veaux, elle était –
enfin ! – appliquée à un condamné le 6 août 1890. En se basant sur les
rapports des médecins légistes américains, Lacassagne décrit longuement
les réactions convulsives du corps pendant les deux décharges – la première n'a pas suffit… –, puis décrit minutieusement l'autopsie du cadavre
(ibid., 435-437). Il note que la presse et l'opinion publique ont été choqué
par les convulsions qui pourraient indiqué que l'homme a souffert. Dès
lors, « une seconde expérience était nécessaire ; elle fut complète car elle
porta, le 7 juillet 1890, non plus sur un seul, mais sur quatre condamnés »
(ibid., 437). Pour bien suivre Lacassagne, il faut naturellement prendre ici
le mot « expérience » au sens « recherche expérimental ». Ainsi, même
s'il juge au bout du compte la méthode encore trop peu sûr, le médecin
légiste se félicite de ces « expériences » sur des humains qui ont « le mérite d'avoir mis à l'ordre du jour l'étude du mécanisme physiologique de
la mort par l'électricité » (ibid., 440).
Lombroso, quant à lui, émis un avis très clairement négatif sur l'électrocution qui fut publié en 1901 par le journal Le Temps et repris dans les
Archives de Lacassagne. Il insistait en effet sur cette « grande douleur »
que constitue « l'anxiété » de « l'attente de la mort » durant de « longs
préparatifs nécessaire à l'application du courant électrique ». Trouvant lui
aussi la décapitation trop sanguinolente, il fut l'un des tout premiers à
préconiser une solution inédite que résume ainsi son commentateur :
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 31
« l'emploi de gaz provoquant l'asphyxie au milieu d'hallucinations agréables, tels, par exemple, le chloroforme et l'éther. Point de préparatifs et
l'individu part pour l'autre monde sans s'en apercevoir » (Anonyme,
1902, 64). Le principe trouvera quelques années plus tard de nombreux
partisans chez les plus fervents eugénistes français (Binet-Sanglé, Carrel,
Richet).
2.5. « Droit de mort et pouvoir sur la vie » (Foucault) :
la nouvelle fonction eugénique de la peine de mort
Retour à la table des matières
Nous avons souligné à plusieurs reprises le fait que la logique du raisonnement des médecins de l'époque pouvait être considérée comme eugéniste avant la lettre. Si le comportement criminel n'est que le résultat
d'une hérédité viciée (qu'elle soit expliquée par l'atavisme ou par la dégénérescence), alors il est clair d'une part que la mise définitive hors du jeu
social et l'empêchement de la reproduction des criminels est le seul
moyen de prévenir leurs comportements, d'autre part que l'on pratiquerait
ainsi une sélection des individus ayant pour effet d'assainir progressivement le « corps social ». Pour la plupart de nos médecins-criminologues,
la chose tombe alors sous le sens 17 . C'est donc en toute logique et à bon
droit que Georges Genil-Perrin, médecin légiste et aliéniste, pourra écrire
en 1913 : « Morel voulait couronner son oeuvre par la publication d'un
traité d'hygiène physique et morale ; son ombre doit tressaillir d'aise,
dans l'Olympe des aliénistes, en assistant au réveil de la lutte contre la
dégénérescence, d'où naît la science nouvelle de l'Eugénique » (GenilPerrin, 1913, 379). De même, c’est sans surprise que l'on entendra, tout
17
Elle est aussi anodine que cette remarque précoce de Lacassagne relevée au détour d'un compte rendu traitant des suicidés : « Comme ces derniers [meurtriers et
assassins], les suicidés sont des vaniteux, des égoïstes, ils ont des instincts antisociaux. La société ne peut se perfectionner et devenir meilleure que par une heureuse sélection des natures supérieures et sympathiques. Elle voit sans regret
spontanément disparaître celles qui sont retardées, égoïstes, dépourvues des qualités généreuses et bienveillantes qui constituent notre civilisation actuelle » (Lacassagne, 1887, 478-479).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 32
au long des premières années du nouveau siècle, des appels à une interdiction du mariage chez les criminels et les aliénés (par ex. Lavergne,
1912) et plus largement chez les alcooliques (par ex. Garnier, 1901 ; Lacassagne, 1906, 75). Pour autant, ces remarques sont encore marginales
dans les années 1880 et 1890, à un moment où la déportation puis la
peine de mort occupent tout l'espace du débat sur la répression pénale. Il
faut attendre le tournant du siècle pour voir apparaître le débat sur les solutions eugénistes proprement dites, au premier rang desquelles figure la
stérilisation ou castration.
En 1901, c'est un professeur de médecine à la retraite (École militaire
du Val-de-Grâce) qui lance le débat sur la castration des criminels dans
les Archives de Lacassagne. Servier part à son tour du constat que la décapitation est « un procédé barbare, petite honte pour la civilisation »
(Servier, 1901, 130). La peine de mort est pourtant une nécessité absolue.
Et Servier indique alors qu'elle a non pas une ou deux mais trois fonctions essentielles :
« D'abord, elle anéantit un criminel dangereux [...], et puis elle inspire une
crainte salutaire à ceux qui seraient tentés de l'imiter. Voilà à peu près ce que
chacun pense. Cependant la peine de mort a encore un autre effet, auquel on
ne prend pas garde bien qu'il ait une large importance : elle met hors de service un procréateur taré et devient ainsi un puissant facteur de l'amélioration
de la race [...] par la suppression de conceptions viciées dans leur germe »
(ibid., 130-131).
Et d'ajouter : « J'estime que le dernier argument, le moins apprécié
jusqu'ici, est précisément celui qui possède la plus solide valeur ». Se référant à bon droit à Lombroso, Servier rappelle en effet que l'hérédité est
« la clef de voûte de l'action humaine » et que, dès lors, « l'accouplement
des assassins réserve une menace constante pour l'avenir, à cause de la
mauvaise qualité probable des produits qui en résulteront. Les fils d'un
meurtrier risquent fort de venir au monde avec, au fond du coeur, les
sanguinaires penchants de leur père » (ibid., 131 et 132). Dès lors, « au
lieu de décapiter les meurtriers, il convient d'en faire des eunuques », ainsi que l'idée était apparue depuis quelques années aux États-Unis (ibid.,
135). C'est le seul moyen de supprimer ces « reproducteurs tarés »,
d'« anéantir leur race » et contribuer ainsi fortement à « l'amélioration »
de l'espèce humaine toute entière (ibid., 135). Techniquement, la chose
paraissait à Servier d'une simplicité et d'une hygiène à toute épreuve
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 33
(ibid., 138). En comparaison avec la peine de mort, il pensait ainsi avoir
établi sans conteste « la supériorité humanitaire de l'eunuquage » (ibid.,
141).
2.6. Humanité ou inhumanité du programme eugéniste ?
Retour à la table des matières
Comme effrayer par l'ampleur potentielle de son nouveau et si simple
procédé, Servier consacrait en 1901 le tout dernier paragraphe de son
texte à émettre une réserve sur l'étendue à donner à ce procédé de « sélection des mâles ». Que se passerait-il en effet si cette technique si simple
était étendue à toute les formes de délits même non criminels ? La chose
serait scientifiquement fondée : « Sans doute, en poursuivant la destruction des germes viciés dans les reins des voleurs on parviendrait à éteindre bon nombre de ces familles, citées en exemple par les criminalistes,
dans lesquelles le vol se pratique de père en fils ». Pourtant, estime notre
médecin, « la société commettrait un abominable abus de pouvoir et un
crime sauvage de lèse-humanité » (ibid., 141) 18.
Il est difficile de ne pas comparer cette ultime réserve morale de notre
médecin à l'ensemble de la logique qui avait conduit jusqu'à ce moment
sa démonstration. Revenant quelques pages en arrière dans son texte, on
l'observe en effet défendre le « progrès humanitaire » que constitue selon
lui la castration contre les résistances prévisibles de « rêveurs », « hâbleurs », « snobs » et autres « métaphysiciens aux cerveaux irréductibles » (ibid., 136-137). Contre eux, les « simples pratiquants du culte social » ne devaient tout à l'heure pas fléchir pour imposer leur conception
de l'amélioration de l'espèce humaine. Or voici tout à coup que c'est le
18
En 1888, Féré s'interrogeait déjà sur l’extension à donner aux mesures eugénistes
(ici l'interdiction du mariage aux « dégénérés ») : « il n'y a aucune loi sur laquelle
on puisse s'appuyer pour interdire les unions entre les dégénérés, et on ne peut
même pas supposer une loi semblable, car qui serait en mesure de décider à quel
degré de dégénérescence il faut s'arrêter ? Le seul moyen qui puisse être tenté est
d'instruire le public » (Féré, 1888, 110 ; nous soulignons). Toutefois, il envisageait la possibilité de lever le secret médical quant le médecin détecte une dégénérescence.
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 34
même argument moral, « métaphysique », qui devrait limiter l'application
du programme médical de sélection. Le contradiction est intéressante.
L’auteur entrevoit peut-être soudainement l'étendue faramineuse de son
propos.
D'autres se chargeront rapidement de préciser ce champ « naturel »
des mesures préventives de castration. Ainsi, par exemple, Lacassagne
publie-t-il en 1910 les propos maximalistes du docteur Robert Renthoul
de Liverpool. La liste et le comptage des dégénérés que ce dernier donne
sont impressionnants. Renthoul dénombre tout d'abord dans son pays
(pour l'année 1909) « pas moins de 128 787 personnes officiellement certifiées comme étant affectées d'aliénation mentale », auxquelles s'ajoutent
naturellement la foule des malades non repérés. Il précise ensuite que
« Ne sont pas inclus dans la statistique ci-dessus le grand nombre d'enfants d'une intelligence défectueuse [...]. Ce nombre probablement touche
un total de 150 000, et ce sont là les pères et mères futurs d'une poussée
encore plus grande d'enfants aliénés » (Renthoul, 1910, 516-517). De
plus, à la foule des aliénés stricto sensu s'ajoute 34 015 épileptiques, plus
la masse inquantifiable « de criminels, de vagabonds, d'alcoolisés et de
prostituées qui tous sont vraiment atteints d'aliénation mentale » (ibid.,
517). Et ce n'est pas tout : « Il y a encore la catégorie des gens qui sont
pour ainsi dire au bord du précipice : ceux affectés de chorée, les névrosés, les faibles d'esprit, les baroques, les erratiques, les personnes dont le
pouvoir mental est si faible qu'un ou deux verres de bière leur enlèvent
toute faculté de distinguer entre le bien et le mal. Alors le total serait à
faire frémir » (ibid.). C'est en effet en millions que se chiffrerait sans
doute alors le nombre des dégénérés à stériliser. Renthoul n’en frémit
pas. Il rassure au contraire son lecteur en indiquant que la stérilisation
« est d'une grande simplicité en pratique, sans douleur, elle n'occasionne
aucun changement dans les fonctions ordinaires du corps, et ne produit
aucun mauvais effet. Elle ne nuit à aucune fonction excepté à celle de la
procréation. Elle est venue à la suite des connaissances scientifiques modernes [...] » (ibid.). Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 35
Ce type d'appel à une stérilisation massive des populations déviantes,
sur le modèle américain, n'eut pourtant que peu d'échos en France. Certes, un texte comme celui-ci fut volontiers publié par Lacassagne qui,
rappelons-le, sera membre du comité français d'organisation du premier
Congrès eugénique international (Londres, juillet 1912). Certes encore,
une bonne quinzaine de médecins français exprimèrent au même moment
(dans les années 1905-1914) des avis rigoureusement similaires, dans de
nombreuses revues médicales (cf. les nombreux exemples donnés par Carol, 1995, 163-184). On peut même dire que l'arsenal technique des médecins était près à fonctionner en ce sens : outre le perfectionnement
continu du bertillonage poursuivi en particulier par les élèves de Lacassagne (Locard, 1909) dans le cadre de la lutte contre la récidive, les médecins pouvaient rapidement proposer de mettre en place le dépistage des
anormaux à l'école ou bien encore à l'armée (par exemple Haury, 1910).
Pourtant, William Schneider (1990) a montré que l'eugénisme n'aura
jamais en France la force et le crédit que lui accordèrent les pays anglosaxons et scandinaves. L'obsession du déclin démographique (la « dépopulation » selon l'expression consacrée à l'époque, notamment par l'ouvrage final de Jacques Bertillon [1911]), particulièrement marquée en
France, est la première raison invoquée par l'historien américain. Mais il
faut aussi insister – sans doute plus encore qu'il ne le fait – sur l'ancienneté et la prédominance politique du programme hygiéniste de prévention
des trois fléaux qui obsèdent alors les médecins : la tuberculose, la syphilis et l'alcoolisme, lui-même à l'origine de nombreuses dégénérescences
donc, en bout de course, des problèmes sociaux (cf. Corbin, 1982 ; Guillaume, 1986 ; Nourrisson, 1988 ; et plus globalement, sur les politiques
d'hygiène publique, Cauvais, 1986 ; Ellis, 1990 ; Murard, Zylberman,
1998). Si la valeur nosologique de la doctrine de la dégénérescence est
alors souvent contestée, pour la plupart des hygiénistes sa « valeur étiologique générale reste inébranlée, parce qu'elle est inébranlable » (GenilPerrin, 1913, 379). Les criminels étant considérés – au même titre que les
fous et les prostituées – avant tout comme des dégénérés, la lutte préventive contre les facteurs premiers de la dégénérescence prime sur le traitement de ses conséquences : l'organisation de la lutte préventive contre
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 36
l'alcoolisme prime sur la question du traitement des criminels 19 . Pour
beaucoup, l'alcoolique est véritablement l'ennemi public numéro un 20.
Enfin, il faut aussi évoquer comme une dernière raison le maintien
chez une grande majorité de juristes – et sans doute chez une minorité
non négligeable de médecins (Léonard, 1981, 270-272) – d'une forte opposition au « tout-héréditaire » des théories biologiques et aux solutions
eugénistes qui en découlaient. En effet, les médecins défendant l'eugénisme ne cessent à l'époque de se plaindre de la persistance d'une philanthropie, d'une conception des droits individuels et d'une croyance dans les
bienfaits de l'éducation – toutes choses qu'ils rebaptisent avec mépris
« sentimentalité » ou « métaphysique » – qu'ils jugent mal placées. On
peut par conséquent faire l’hypothèse que ces éléments culturels (mais
19
« Qui dit alcoolisme dit crime » écrit le docteur Legrain (1896, 13), ancien collaborateur de Magnan et un des leaders de la lutte anti-alcoolique, qui publie le tableau suivant:
« Sur 100 détenus pour
pour assassinat
outrages à la pudeur
incendie
mendicité, vagabondage
coups, blessures
Sur 500 détenus
c'est-à-dire 64 % ou 2/3. »
20
on trouve
53 alcooliques.
53 alcooliques
57 alcooliques
70 alcooliques
90 alcooliques
323 alcooliques
La liaison du crime et de l'alcool devient évidente à tel point que, par une circulaire du 22 décembre 1906, le Ministre de la Justice demandera au chef de la
statistique judiciaire de modifier les grilles d'enregistrement de la statistique criminelle afin que l'on évalue mieux le rôle de l'alcool (Yvernès, 1912, 17). En bon
hygiéniste, Lacassagne y avait quant à lui toujours insisté, constatant notamment
– après Bertillon et bien d'autres – que « les statistiques de l'alcoolisme se superposent à celles de la criminalité » (Lacassagne et Martin, 1906, 845-846).
Rappelons par exemple ce portrait apocalyptique que dressa Brouardel en 1889,
lors de la séance d'ouverture du Congrès international d'hygiène et de démographie qu'il présidait, à Paris : « L'alcoolique est un danger pour la société [...]. L'alcoolique est un être faible cérébralement, capable des pires intentions. Il est dangereux pour lui et ses concitoyens, il entre pour plus de la moitié dans les pensionnaires des prisons, il peuple les hôpitaux et les asiles d'aliénés. Il est ruineux
pour sa famille et pour la commune qui, après avoir secouru sa misère et celle de
sa femme, est obligée de faire vivre ses enfants scrofuleux, idiots, épileptiques,
incapables de travailler pour suffire à leur subsistance » (Brouardel, 1889b, 11).
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 37
quelle serait la part de la culture religieuse et de la culture politique ?) ont
joué un rôle dans le non alignement de la France sur les programmes eugénistes adoptés ou envisagés dès cette époque par les gouvernements
des pays anglo-saxons. L'ampleur de ce rôle resterait à déterminer par le
recours à d'autres sources que les écrits scientifiques.
Conclusion générale
Retour à la table des matières
Dans l'histoire longue des théories pénales et des théories de la criminalité en France, un incessant mouvement de balancier idéologique est
perceptible. Il oscille entre un pôle optimiste fondé sur une conception
dynamique et égalitaire de la nature humaine, traduite dans l'espoir de
l'amendement moral et de la réintégration sociale par le travail, et un pôle
pessimiste fondé sur une conception statique et hiérarchique de la nature
humaine, traduite dans la recherche des modes adéquates d'exclusion sociale. A aucun moment, ces deux conceptions humaines et sociales ne
sont véritablement exclusives ; entre elles le débat fut constant et l'on
peut seulement distinguer des périodes de domination plus ou moins prononcée de l'une sur l'autre. Les années 1791-1848 marquèrent ainsi la
domination relative de la première conception. Les décennies suivantes
sont plus incertaines. Par contre il est clair que les années 1880 marquent
un tournant vers la domination progressive de la seconde conception. Et
il est également évident que les théories bio-médicales, et plus largement
la poursuite du mouvement d'institutionnalisation de ce que nous pourrions appeler les « sciences médicales de l'Homme » (anthropologie, psychiatrie et leur participation fondatrice à cette nouvelle « criminologie »),
ont joué un rôle central dans ce processus. Elles ont en effet légitimé au
nom de la Science – vérité suprême pour les républicains dans un siècle
marqué fondamentalement par l'anticléricalisme – le traitement ségrégateur de la question sociale. Elles sont même parvenues à remettre largement en cause la notion même de peine au profit d'une conception que
Laurent Mucchielli, “Criminologie, hygiénisme et eugénisme en France (1870-1914)...” (2000) 38
nous pourrions appeler un « utilitarisme socio-médical » 21 , c'est-à-dire
un principe de défense et de progrès d'une société conçue non pas comme
une organisation d'individus autonomes et détenteurs de droits imprescriptibles mais comme un organisme vivant doté de membres ou de cellules actifs ou inactifs, utiles ou inutiles, méritant le statut de citoyen ou
devant être considérés comme des erreurs, des aberrations, des déchets à
éliminer pour maintenir sa bonne santé.
Enfin, il nous semble important de replacer ce mouvement politique et
intellectuel dans la longue durée de l'histoire de l'ascension du corps médical et de son principal étendard : l'hygiénisme. Ce dernier peut être défini comme le très vaste projet de contrôle sanitaire et social conçu clairement par les médecins dès la fin du XVIIIème siècle, mis en oeuvre de
façon de plus en plus efficace à partir des années 1820-1830 mais qui
connut véritablement son apogée au tournant du XIXème et du XXème
siècle, du fait notamment de l’impact de ce qu’il est convenu d’appeler la
« révolution pastorienne ». La lutte contre le crime est un des aspects de
cette police généralisée des moeurs, au même titre que la lutte contre la
prostitution, l'alcoolisme, le vagabondage, la sexualité hors mariage ou
que l'éducation surveillée des enfants. En 1829, le programme des Annales d'hygiène publique et de médecine légale annonçait clairement cette
ambition. Il stipulait en effet que, au-delà de la salubrité des conditions
de vie et d'alimentation,
« [l'hygiène publique] a devant elle encore un autre avenir dans l'ordre moral.
[...] Elle doit éclairer le moraliste et concourir à la noble tâche de diminuer le
nombre des infirmités sociales. Les fautes et les crimes sont des maladies de la
société qu'il faut travailler à guérir, ou, tout au moins, à diminuer ; et jamais
les moyens de curation ne seront plus puissants que quand ils puiseront leur
mode d'action dans les révélations de l'homme physique et intellectuel, et que
la physiologie et l'hygiène prêteront leurs lumières à la science du gouvernement » (cité par Lécuyer, 1986, 101).
| 14,641
|
57/pastel.archives-ouvertes.fr-pastel-00918655-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,216
| 12,891
|
sont perceptibles De fait, les dans les questions et hésitations de M.Frybourg : Le 8 février 1994, l'argument avancé par M.Frybourg de l'effectivité du droit est inspiré par la DGCCRF. Le 6 avril 1994, les affrrmations : "les contrats de coopération commerciale constituent une réponse satisfaisante", "la DGCCRF est contre une réforme et elle défend les PME", sont d'inspiration DGCCRF. Le 29 juillet 1994, lors d'un entretien téléphonique avec M.de Malatinszky rend fidèlement - dans tous les sens du terme - compte de la conférence de presse de M.Babusiaux : M.Babusiaux a expliqué qu'il n'était pas dans l'intention du Ministre de IEconomie de réformer, que la défense des PME-PMI était une préoccupation de la DGCCRF ; en tête-àtête avec M.Frybourg, M.Babusiaux a expliqué à M.Frybourg qu'il n'y avait actuellement pas d'interdictiondu refus de vente, qu'il n'était pas question de réformer sans un minimum de consensus, qu'il existait des voies ouvertes à la jurisprudence et aux partenaires : d'après l'entretien téléphonique, M.Frybourg est manifestement "retourné" apr cette argumentation. Le 7 novembre 1994, l'argument de M.Frybourg : "Vous pouvez recourir à la distribution sélective", reprend un argument issu de la DGCCRF et déjà rapporté comme tel par Mme Jordan-Dassonville lors de la rencontre GlBCD-Ministère de l'Industrie du 21 décembre 1993. D'après l'entretientéléphonique du 12 avril 1995 dans lequel M.Frybourg rapporte à M.de Malatinszky son entretien d'une heure du vendredi 7 avril avec M.Babusiaux, M.Frybourg par31"t: très influencépar ce que lui a dit M.Babusiaux, malgré les avancées du discours du GrnCD à la CGPME à cette époque. M.Frybourg va jusqu'à dire qu'il faut maintenant "insister sur l'abus de dépendance économique et ne pas trop mettre en avant le refus de vente". La position des organisations professionnelles autres que le OmCD alimente également le questionnement de M.Frybourg au sein de la Commission Juridique et Fiscale: 233 Ainsi, dès le 8 février 1994, la position, contraire à celle du GIBCD, de l'ANlA et de l'ILEC est perçue par M.Frybourg comme une objection à la validité des propositions du GIBCD. Les questions posées par M.Frybourg le 6 avril 1994 traduisent ses doutes sur la validité rationnelle des thèses du GIBCD. La prellÙère question, "la position du GIBCD est-elle partagée par les autres secteurs de l'industrie?", est une remise en cause de la "validité universelle" en même temps que du poids politique des propositions du GIBCD. La deuxième question, "est-il possible que le droit soit différent entre les secteurs industriels?", est une question sur la pertinence, pour tous les acteurs éconollÙques, des propositions par le GIBCD de nouvelle rédaction de l'ordonnance de 1986. C'est la question sur la "validitéuniverselle" des propositions qui est de nouveau posée. Le 7 juin 1994, le doute de M.Frybourg sur la liberté de refus de vente est activé par les récentes déclarations de M.Dermagne, Président du Conseil National du Commerce, qui 'est déclaré favorable à une libéralisation du droit de la concurrence41.
2) L'environement et l'adhésionfinale du SAEI au discours du GIBCD :
L'étude de la relation entre le SAEI du ministère de l'Industrie et le OmeD fournit un autre exemple, positif cette fois pour le OIBCD, d'influence de l'environnement sur l'évolution
d'
une relation
bilatérale. 41 d'ailleurs, plus tard le GIBCD apprendra que M.Dermagne tenait parallèlement et discrètemement auprès de Matignon un discours tendant à dissuader de toute réforme. 234 Le tout crée un contexte qui vient donner une crédibilité aux propos du OIBCD, ainsi moins mis en doute, discutés (ce qui correspond à des ramifications de son discours) que par le passé (entre novembre 1993 et mars 1994). Aussi le déroulement de la rencontre de mars 1995 entre le SAEI et le OmCD est-il caractérisé par la plus grande autorité, due aux confirmations de contexte, accordée aux propos du OrnCD qui sont maintenant pris en compte et retranscrits texto par ses interlocuteurs du SAEI. 235
III> LE "TRAVAIL"DE PERSUASIONDU OmCD SUR LES REPRESENTATIONS DE SES AUDITOIRES:
Par rapport au caractère inévitablement critique, destructeur de l'interaction à l'égard de son discours, l'objectif du omCD apparaît comme la stabilisation de l'interaction autour de son discours et de sa proposition de texte de loi (A». Pour ce faire, le OmCD tient un certain discours (B», qui joue lui aussi sur les lieux d'ignorance des représentations de ses auditoires et ainsi les déstabilise à son tour. Ce travail de persuasion sur le fond s'accompagne d'une attention particulière du OmCD sur la forme concrète de son discours, importante pour obtenir l'adhésion de l'auditoire "ignorant" (C». A) La recherche de stabilisation autour de son discours et de sa proposition de texte de loi: A partir de ce qui précède (II», que le OmCD parvienne à persuader ses interlocuteurs revient pour lui à clôre les sources rationnelles de discussion de son discours, et à éteindre la possible interprétation critique de l'auditoire sur l'intentionnalité plus ou moins stratégique de son discours. fi s'agit donc pour le OmCD d'être crédible (en l'absence de possibilité de démonstration contraignante) et de stabiliser les questionnements, les arrêts de toute nature sur le discours, en particulier sur sa proposition de texte de loi qui est le discours du souhaitable qu'il promeut. La discussion entre le omcn question des pratiques et le SAEI du ministère de l'Industrie fournit, sur la tarifaires discriminatoires, une bonne illustration de cette recherche par le OmCD de stabilisation autour de son discours et ultimement de sa proposition de texte de loi. Lors de sa rencontre le 21 décembre 1993 avec le SAEI, le GmCD, après avoir répondu à quelques arguments mis en circulation par la DGCCRF, expose sa propre logique de façon "moins sur la défensive" (expression de M.Anus). Ce type d'exposé, plus autonome, sans opposition par rapport au discours orthodoxe de la DGCCRF, permet au GmCD d'éviter d'entrer, de se "laisser entraIDer" dans la réfutation de ramifications de raisonnement activées par la DGCCRF, alors que celle-ci vont dans le sens d'obligations de justifications et nuisent à la clarté et au caractère voulu indiscutable et stable du discours du GIBCD. Ainsi, au sujet des discriminationstarifaires, M.Poels (de la société Sony) explique que les ristournes sont un moyen simple et nécessaire à la disposition de l'industriel pour inciter le 236 distributeur respecter sa politique commerciale. De plus, souligne-t-il, il n'y a pas de proportionalité stricte entre l'économie rémunération de ladite prestation: de coût réalisée grâce à la prestation et la c'est une question d'appréciation de l'intérêt à ce que la prestation soit faite : il faut donc écarter les obligations de justification contenues dans les termes "contreparties réelles", qui se prêtent à une interprétation quantitative et comptable (en termes de coûts). Sur la question des discriminations, on voit qu'il y a descente dans le détail de l'application du texte (attractif au premier abord) de la loi et mise en regard de cette application avec le fonctionnement concret de la coordination de l'activité entre acteurs économiques. La recherche par le GIBCD de stabilisation de la discussion autour de sa proposition de nouveau texte de loi apparat"! plus nettement encore dans la discussion GIBCD/SAEI du 3 février 1994, au sujet des pratiques tarifaires discriminatoires - les répétitions et réticences lors de cette discussion interlocuteurs traduisant l'effet de disposition méfiante de la part des du SAEI et étant permises par l'absence de possibilité de démonstration contraignante. Face au discours symboliquement attractif de l'article 36.1, d'obligation de justification par une "contrepartie réelle" et de ne pas "créer un avantage ou un désavantage dans la concurrence", MM.de Malatinszky et Ricatte descendent de nouveau dans le détail concret de la gestion de la coordination entre entreprises, ils expliquent et réexpliquent la dimension incitative des remises, ils insistent et réinsistent sur le caractère essentiellement discriminatoire du processus concurrentiel (ce qui fait apparaître comme un contresens l'expression "en créant un avantage ou un désavantage dans la concurrence"). Mme Jordan-Dassonville et M.Maury essaient de modifier leur rédaction d'article 36.1, mais cette nouvelle rédaction (il y a toujours obligation de justifier par des "contreparties"), de fait de ramification critique du texte proposé par le GIBCD, correspond toujours à la logique d'une nécessaire justification des différenciations tarifaires. Ce type de texte d'encadrement, même allégé dans la lettre - qui reste interprétable -, des différenciations insuffisants. amène M.de Malatinszky Pour M.de Malatinszky, à parler d"'aménagements à la marge", le texte de loi fait dans sa lettre (porteuse potentiellement restrictives) la différence, différence radicale qui ne peut 237 être comblée que par la suppression pure et simple des termes de l'actuel article 36 "justifiés par des contreparties réelles", "avantage ou désavantage dans la concurrence". Cet épisode montre bien la recherche de stabilisation par le GIBCD de l'interaction autour de son discours et de sa proposition de texte de loi. Cette volonté par le GIBCD, apparaît bien également de la notion d'abus de dépendance dans le cas de l'inscription, économique voulue comme critère dans son texte de loi entre pratiques licites et illicites: Lors de l'entretien du 5 mai 1995, M.Debrock fait part de ses hésitations au sujet de la notion d'abus de dépendance écono1IÙque, suite à des questions qui, dit-il, lui ont été posées par des contradicteurs lors de son "tour de table" : poussé dans des ramifications de raisonnement plus fines, relatives au contenu et à l'interprétation future de ce concept, il n'a pas pu répondre à ses interlocuteurs. fi apparaît en fait ce 5 mai que l'ancienne stabilisation de M.Debrock en accord avec le GIBCD semblait fondée davantage sur une adhésion aux idées générales du GIBCD ("je suis intellectuellement d'accord avec vous mais ") que sur une bonne connaissance du concept juridique défendu par le GIBCD : ainsi, lorsque M.Debrock explique que l'abus de dépendance écono1IÙque est hérité du droit allemand inspiré au lendemain de la guerre de la législation anti-trust américaine, il se trompe puisque ce concept n'est introduit dans le droit allemand qu'en 1979, afin de protéger les PME. La déstabilisation consécutive de cette ignorance de M.Debrock amène celui-ci à suggérer une formulation du texte de loi qui ramifie l'expression "abus de dépendance écono1IÙque", et qui mentionne littéralement et "sans ambigullé" les pratiques illicites comme le boycott, sans recours au critère d'abus de dépendance écono1IÙque. M.de Malatinszky voit un "danger" stratégique dans l'ouverture d'un questionnement sur le concept d abus de dépendance écono1IÙque : en effet, le doute de M.Dehrock risque de gagner d'autres interlOcutturs qu'il pourrait rencontrer, tels M.Maury et Mme JordanDassonville de la DGSI. C'est pourquoi est rédigée une "note de synthèse sur l'abus de dépendance écono1IÙque" qui est adressée le 29 mai aussi bien à M.Debrock qu'à Mme Jordan-Dassonville. La lettre de couverture adressée à M.Debrock traduit bien la volonté de stabilisation : "Les éléments qu'elle [la note] contient caractérisent semble que ces précisions l'abus de dépendance économique. Il nous ôtent, dans toute la mesure du possible, le doute sur le caractère opératoire du critère d'abus de dépendance économique dont nous demandons l'inscription dans le titre IV de l'ordonnance de 1986. Nos récents contacts avec des juristes nous ont confrrmés dans cette appréciation. Je reste à votre disposition pour toute information supplémentaire que vous estimeriez nécessaire à votre réflexion." B) Le discours tenu par le GIBCD pour tenter de parvenir à cette stabilisation: On a vu précédemment que chaque représentation (dans ses dimensions "cognitive" et "normative") se caractérise tant par ce qu'elle retient que par ce qu'elle ignore, au sens large (non- ou mé-connaissance objective, ou négligence, non-retenue plus subjective). Elle ignore ainsi certaines ramifications inférieures non retenues en tant que telles (qui correspondent à certains faits élémentaires) (cette ignorance correspond ou en sens inverse ignore certaines à la non-Cre)connaissance d'un discours d'autorité, par exemple celui d'un expert ou théoricien recommandant un concept général ou prévoyant une tendance économique à long terme), représentation et donc d'une ignorance caractéristique l'absence de possibilité de démonstration contraignante. important de chaque représentation la persistance de cette pouvant se comprendre par Cette ignorance est l'aspect quand on étudie l'interaction et les arguments employés par chacun, en particulier le GrnCD qui, dans son travail de persuasion, déstabilise la représentation initiale de l'interlocuteur, en en visant les lieux d'ignorance qui empêchent la tenue du même discours. C'est à l'intérieur de cette logique rationnelle et stratégique de ciblage des lieux d'ignorance, qui nous sert de fil conducteur original, que nous signalons au passage les types classiques d'argumentations employées. Bl) La correction des ignorances objectives: L'ignorance sur laquelle le GrnCD peut le plus facilement intervenir est la mé- ou nonconnaissance qui est objectivement corrigeable : Le 7 novembre 1994, M.Frybourg affirme que le titre IV actuel, notamment sur la question de la transparence, em e au traité de Rome : la volonté de réforme du GIBCD ne tient pas compte du droit européen de la concurrence. Cette question de M.Frybourg est issue de son ignorance (méconnaissance) des droits français et européen de la concurrence, avec une confusion entre le titre m, qui est effectivement aligné sur le droit européen en ses articles 85 et 86, et le titre IV, spécifique au droit français, ce que rappelle le GmCD dans son courrier du 10 novembre. Certaines erreurs objectives de raisonnement et d'expression dans un discours, ignorées de leur auteur, sont corrigeables : Lors de la rencontre du 30 mai 1994 entre M.Charié qui vient de rédiger une avantproposition de loi et le GIBCD, celui effectue quelques avancées, sans remettre en cause la représentation du souhaitable de M.Charié, mais en soulignant plutôt l'ignorance dans le choix de mots (pour la rédaction) de M.Charié. Concernant le refus de vente, M.Charié prévoit qu'il ne soit plus interdit sauf "lorsqu'il (émane d'une entreprise en position dominante ou s'il s'exerce à l'encontre d'une PME". M.Charié convient que dans son esprit c'est l'abus de position dominante, et non la position dominante en elle-même (ce qui serait absurde) qui est répréhensible: de toute manière, dit M.Charié, "la rédaction de mon texte est encore modifiable". A propos du montant des sanctions applicables, M.Charié reconnaît que sa rédaction peut laisser penser que le montant pourrait s'élever à 5% du CA global annuel de l'entreprise visée (ce qui est inconcevable, car cela reviendrait presque à faire déposer le bilan à l'entreprise). En fait, dans l'esprit de M.Charié, le montant d'une sanction pourrait s'élever à 5% du chiffre d'affaires annuel réalisé par l'entreprise avec le client et sur le produit concerné. Autre exemple: dans son avant-proposition de loi d'octobre 1995, M.Charié, dans sa version d'article relatif à la revente dite "à perte" fait référence au "prix unitaire net" en dessous duquel il est interdit de descendre : mais, le GIBCD le lui fait techniquement remarquer, ce "prix unitaire net" n est défini que dans les explications jointes aux propositions de rédactions d'articles - ce qui rend le texte objectivement inapplicable comme le prix unitaire net d'achat du produit déduction faite des remisse quantitatives ramenées à l'unité. M.Charié intègre ce commentaire dans sa rédaction de novembre - sans changer la logique (elle irréfutable de façon objective) de son dispositif. B2) La ramifICation par le GIBCD des discours de principes opposés: Le arnCD "travaille" les principes symboliquement tarifaire et de transparence, attractifs de non-discrimination en descendant dans les ramifications de raisonnement, ignorées par certains de ses auditoires et relatives à leur application juridique et à leurs effets micro-économiques. En vue de la réunion du 1er mars 1994, la lettre du 10 février de M.de Malatinszky M.Charié procède, sur les thèmes de la non-discrimination déstabilisation et de la transparence, à à une en deux temps, sur un mode typiquement rhétorique. Dans un premier temps, il y a accord affiché des esprits sur la valeur morale du principe de nondiscrimination: divergence le GIBCD rejoint et s'approprie la position de M.Charié (pour réduire la perçue des représentations) pour mieux introduire ensuite le doute, en descendant dans le détail de l'application de ces principes (ouverture d'un niveau inférieur de ramification de raisonnement) : "1) à propos de la non-discrimination: celle-ci consiste à "appliquer les mêmes conditions pour des prestations équivalentes". Si l'on ne peut qu'adhérer moralement à ce principe de justice, nous souhaiterions avoir votre avis sur son application, qui mérite réflexion, lorsque l'on considère les faits suivants : a) certains services rendus par un distributeur, telle que la réputation de l'enseigne, sont immatériels de nature, donc difficilement quantifiables, tout en étant bien réels (puisque les ventes sont favorisées). b) comme l'a reconnu la Cour d'appel de Paris dans les cas Sony et NC Video France, la rémunération d'un service n'a pas forcément à être "calée" sur le coût dudit service mais peut aussi - à bon droit - inclure un montant correspondant à l'incitation à réaliser ledit service. Ces deux cas de figure conduisent à poser deux questions ouvertes, plus générales: c) quelle différence y a-t-il selon vous entre conditions différenciées et conditions discriminatoires? Comment la repérer? d) pourquoi un industriel, soumis à la concurrence d'autres industriels (donc à la conquête de parts de marché), consentirait-il des remises d'un montant supérieur au gain qu'il retire des services rendus par un distributeur? 2) à PfOJlosde la transparence: celle-ci consiste à présenter clairement les conditions et pratiques tarifaires afin que diminuent les risques de discrimination. Encore une fois, c'est l'articulation de ce principe, louable, avec la réalité qui nous fait poser les questions suivantes: a) comment la transparence peut-elle jouer pratiquement lorsque l'évaluation monétaire d'une prestation de service est difficile pour les raisons vues précédemment? b) selon vous, la transparence joue-t-elle un rôle univoque, uniquement vertueux dans le processus concurrentiel? Si non, quels peuvent-être ses effets pervers?" Dans cette argumentation travail dialectique de Il par des cas de figure pédagogiques, descente Il dans une ramification on assiste à un véritable (les principes, 241 descendus au niveau concret de cas d'application de la loi) qui reste close et ignorée dans la représentation stabilisée de M.Charié : Le 1er mars 1994, face à M.Charié, M.de Malatinszky entre dans le détail du déroulement concret de la négociation quand il explique qu'un industriel perd dans sa négociation à présenter à l'avance le montant de toutes les remises - même justifiées - qu'il est prêt à consentir puisque ce montant est considéré par le distributeur comme ce que l'industriel est prêt à "lâcher" : ce montant sert alors de point de départ à la négociation. 3) La mobilisation de cas par le GIBCD : Le amCD emploie dans son argumentation des cas destinés à montrer la validité (même si ces cas ne permettent pas d'apporter de démonstration contraignante) de son discours, principalement sur les objets suivants : effets micro-économiques pervers du droit français de la concurrence, degré de restrictivité dans l'application de ce droit (pour ces deux objets, il y ramification du raisonnement vers l'expérience sensible individuelle pour fonder un énoncé général de constat d'inadéquation de la loi aux nécessités économiques, mais ces cas peuvent rester considérés uniquement comme tels par les interlocuteurs), autres systèmes juridico-économiques Ainsi, micro-économiquement, existants et comparaison avec le système français. le amCD donne dès le début de sa campagne l'exemple du lancement d'une innovation (le téléviseur 16/9 Thomson) raté à cause de l'interdiction du refus de vente à l'article 36.2 de l'ordonnance: Le GIBCD avance le cas du lancement raté (avec les conséquences sur tous les investissements engagés) du téléviseur 16/9 du fait du comportement d'un distributeur, auquel Thomson ne pouvait pas a priori refuser de vendre: ce distributeur, pour faire un "coup" publicitaire, a pratiqué un prix d'appel qui a désorganisé la commercialisation du produit, car les autres commerçants ont refusé de s'aligner sur ce prix bas et ont préféré déréférencer le produit. Cet exemple est avancé par le GIBCD le 21 décembre 1993 lors de l'entretien avec le SAEI ainsi que le 1er mars 1994 lors de la réunion de travail avec M.Charié. De même, le 28 mai 1996, à la veille de la deuxième lecture à l'Assemblée nationale, le amCD adresse un cas à M.Charié, concernant la distribution de produits bruns et illustrant les effets pervers possibles d'un texte retsrictif sur le refus de vente, qu'il 242 s'agisse de celui voté en prière lecture au sénat ou du texte préparé par M.Charié en faveur des PME. Le cas est ainsi exposé par le GrnCD : "Premier acte : un grossiste de Toulouse organise une "procédure buraliste" avec des débitants de tabac pour commercialiser des matériels électroniques grand public (voir pièce jointe). Deuxième acte: la SACOMUN, coopérative de commerçants spécialisés en électronique grand public (uniquement des PME), écrit à Thomson pour lui demander de ne pas livrer les buralistes non spécialistes et les raisons mises en avant sont sérieuses (voir pièce jointe). Troisième acte : 21 mai Thomson répond que le droit ne l'autorise pas à refuser de vendre, en l'espèce pour reprendre les termes de l'amendement déposé par le gouvernement au Sénat en première lecture, ne l'autorise pas à restreindre les possibilités d'accès au marché des buralistes. oe commerce non spécialisées (plutôt que des buralistes, il pourrait dans d'autres cas s'agir oe Morale de cette affaire : la bataille est ici entre des PME spécialisées et des PME centres Leclerc, de discompteurs ou de PME spécialement montées comme structures d'achat et revendant aux deux catégories de distributeurs précédentes). Thomson ne peut organiser la commercialisation de ses produits au mieux de ses intérêts, des intérêts du tissu de distribution spécialisée et des intérêts des consommateurs." Juridiquement, le GrnCD mobilise également des cas de jurisprudence censés appuyer son discours (ces cas peuvent toutefois rester considérés uniquement comme tels par les interlocuteurs), et réfuter celui de la DGCCRF: L'argumentaire préparatoire à la réunion de la Commission Juridique et Fiscale du 6 avril 1994 reprend les thèmes développés par le GIBCD le 8 février. On y relève l'importance des cas de jurisprudence comme aide à la persuasion: faute d'une revue exhaustive (de toute manière incompatible avec la contrainte de temps) de toute la jurisprudence, le GIBCD recourt à des cas de jurisprudence (lingerie de Valence, cas des jeans) pour montrer l'intérêt pour les PME d'une suppression de l'interdiction du refus de vente, puisque ce sont elles qui le demandent sur le terrain. Autre exemple. La DGCCRF dit auprès de ses auditoires, qui sont aussi ceux avec lesquels le GIBCD est en interaction critique approfondie, que "seuls les comportements abusifs sont sanctionnés". Cet argument apparat"!à différentes reprises et sans autre précision. Face à cet argument de l'''abus'', le GIBCD se lance dans un examen de la jurisprudence pour tenter de montrer, mais sans évidence42, que ce que l'administration qualifie de pratiques abusives n'a pas le même sens que l'''abus de dépendance économique" qu'il propose comme critère de partage entre pratiques licites et pratiques illicites. Les sources utilisées sont l'article de M.Arhel sur la jurisprudence 1993, les Bulletins d'Information et de Documentation (Ministère de IEconomie et des Finances, décembre 1993 à novembre 1994), plus quelques décisions ponctuelles des tribunaux ou du Conseil de la Concurrence. Ainsi, en matière de refus de vente, le GIBCD relève la décision de la CA de Douai (2è ch., 23 sept. 1993, SA Bic Sport cI SA Décathlon). Cette décision montre que le refus de vente n'est justifié que s'il y a "mauvaise foi du demandeur" (critère subjectif: on considère l'intention du demandeur) ou "caractère anormal de la demande" (critère objectif: on considère la non conformité de la demande aux usages). Le commentaire montre que la décision de justice part d'une discussion des termes mêmes de la loi (art. 36.2) pour conclure, en l'espèce, qu'il n'y avait ni demande anormale ni mauvaise foi (la caractérisation de prix d'appel n'a pas été retenue contre Décathlon). Le GIBCD note que le raisonnement de la CA de Douai aurait été différent si l'ordonnance avait explicitement prévu que seul l'abus de dépendance économique était sanctionnable.Le poids historique de Bic dans les achats de Décathlon et la notoriété de Bic auraient été considérés dans une partie du raisonnement ; mais aussi une place plus grande aurait été réservée aux solutions techniquement é es d'approvisionnement ainsi qu'à la volonté de l'industriel de négocier librement son référencement dans un magasin qui commercialise ses produits à tel ou tel niveau de prix public (avec les conséquences de ce niveau de prix public pour les autres distributeurs de la marque). Le GIBCD conclut donc: "On ne peut donc pas dire que la rédaction actuelle de l'article 36.2, avec ce qu'elle porte en germe de jurisprudence, aille dans le sens de la rédaction proposée par le GffiCD. 244 plus large que celui de l'abus de dépendance économique : il est bien relevé que "la société Hitachi France occupait alors une position marginale sur le marché français. Elle réalisait plus de 80 p. 100 de ses ventes avec trois familles de produits: les caméscopes, 42% des ventes; les magnétoscopes, 23% ; les téléviseurs, 19% ; elle se classait au 13ème rang pour les téléviseurs couleur avec une part de marché en valeur de 2%, au 5ème rang pour les magnétoscopes avec une part de marché de 5,5% et au 4ème rang pour les caméscopes avec une part de marché plus significative de 9,9% (après les sociétés Sony: 32,7%, JVC : 20% et Canon: 10,7%).'''' Le GrnCD met en avant auprès de ses différents auditoires les cas généraux des autres systèmes juridico-économiques européens, qui servent alors de modèles, pour montrer le bien-fondé général et à terme, au-delà des ramifications critiques de raisonnement, du souhait d'une libéralisation du droit français de la concurrence modèles n'apportent pas de démonstration contraignante, : il reste que ces cas- du fait de leur grande généralité. Cette mobilisation, pour comparaison, d'autres cas se systèmes juridico-économiques fait partie de l'argumentaire de base du GlBCD, comme en témoignent ces passages de la plateforme interne du Groupement, de décembre 1993 : "La comparaison avec les règles applicables en Allemagne relativise encore davantage le droit hexagonal. A contrepente du législateur français qui entend garantir la libre concurrence par des interdictions rigides, le législateur allemand considère qu'il appartient aux parties de régler leurs rapports entre elles : son intervention se borne donc aux abus manifestes de la part de l'un ou l'autre bord. [] Le discours de la DGCCRF, par son fétichisme de la transparence, traduit une méconnaissance de l'essence de la négociation : par opposition, en Allemagne, le principe retenu est que la non-transparence est cosubstantielle à la négociation, voire qu'elle la stimule." La recommandation par le GIBCD du critère d'abus de dépendance économique pour distinguer les pratiques licites des pratiques illicites s'accompagne auprès de chacun de ses auditoires de la mise en avant du cas de l'Allemagne. B4) Le recours aux statistiques: Face à la diversité des faits (vers lesquels le raisonnement est ramifiable), le recours aux statistiques peut être une tentative de mesurer la significativité de telle ou telle opinion et 245 de dépasser l'expérience subjective, qui a tendance à ramifier, lorsqu'elle est contradictoire avec, tout discours général. Dans son discours persuasif auprès de la Commission Juridique et Fiscale, le GIBCD emploie comme argument les statistiques sur le commerce de la chaussure (le fait que les détaillants passent en 10 ans de 50% à 30% du marché final), qui apportent une mesure "brute", objective censée réfuter l'idée que les PME sont protégées par l'ordonnance de 1986. Dans les faits, les statistiques sont rares (ce qui permet à des discours différents de se voir attribuée la même vraisemblabilité de validité), elles correspondent à un niveau assez général d'agrégation (nombre de petits détaillants sur tel marché final, parts de marché des différents canaux de distribution par exemple), et par rapport à une argumentation centrée sur le déroulement précis des comportements économiques elles perdent en détail, et sont donc interprétables dans différents sens: la diminution du nombre de PME ne démontre pas la nécessité de réformer la loi dans tel ou tel sens43• B5) L'intégration des différents points de
vue
:
la prétention à la validité universelle:
Afin d
'accroître la validité qui lui est prêtée, le discours du GrnCD essaie de dépasser
les
contradictions entre
les différentes positions affichées. La volonté de démonstration de la "validité universelle" de la logique du GrnCD passe dans le discours de constat par une explication englobante (dans le sens du GIBCD, mais qui n'a pas valeur contraignante) des différentes positions dans les rangs de l'Industrie. Le 8 février 1994, à la CG , M.de Malatinszky avance l'argument du lien entre l'évolution économique de l'agro-alimentaire et l'évolution du discours de l'ILEC. M.de Malatinszky explique que la position de l'ILEC (majoritairement composé d'entreprises du secteur agro-alimentaire) a évolué depuis deux ans à cause du caractère évolutif de la situation économique (argumentation fondée sur une relation de succession), dans le sens d'une dégradation des relations fournisseurs-distributeurs due à une dépendance de plus en plus forte vis-à-vis de la distribution discount: or, c'est précisément cette dépendance croissante qu'alimentent les interdictions actuelles de refus de vente et de discrimination on retrouve là ce que Déry, R., art. cité, p.lO?, nous dit de la limite de l'utilisation d'arguments formels(voir chapitre1). (argumentation, indémontrable de façon contraignante, fondée sur une relation de coexistence) et que doit permettre d'enrayer la suppression de ces interdictions. Dans le courrier du 10 février 1994 à la CGPME, afin de bien prouver (et éviter le doute sur) le bien-fondé de cette argumentation, M.de Malatinszky adresse le compte-rendu de l'intervention de M.Deloffre, alors Président de l'ILEC, lors du colloque FEME (Forum Entreprise Marque Environnement) du 29 avril 1992 : à l'époque, M.Deloffre tenait le même discours qu'actuellement le GIBCD. L'évolution de la position de l'ILEC, à forte composante agro-alimentaire, accrédite l'enjeu décrit par le GIBCD d'une réforme de l'ordonnance de 1986 : cette réforme est nécessaire pour éviter aux industries disposant encore de marges de manoeuvre de tomber en dépendance vis-à-vis de la grande distribution et de demander ensuite l'intervention de l'administration dans des relations devenues déséquilibrées avec la grande distribution. La réponse écrite du GIBCD aux questions posées par M.Frybourg le 6 avril 1994 lors de la Commission Juridique et Fiscale montre la volonté du GIBCD de montrer la "validité universelle". Le GIBCD, en commençant par l'examen et l'explication des positions des divers secteurs industriels, veut prouver que sa représentation du problème est plus "large", donc plus forte, prétendant à une "validité universelle" de la relation industrie-cornrnerceadministration: c'est ainsi qu'est présenté en premier l'argument, de validité vraisemblable mais indémontrable de façon contraignante (car d'autres facteurs ou des facteurs autres que la loi peuvent avoir contribué cette évolution), du cycle de la loi comme instrument de fragilisation puis de protection des industriels. Afin de persuader de validité universelle de son discours du souhaitable qu'est sa proposition de nouveau texte de loi, le GrnCD explique à tous ses auditoires que le critère d'abus de dépendance économique, pour distinguer entre pratiques licites et illicites, permettra à la fois de protéger les industries les plus fragilisées dans leurs rapports avec la grande distribution et de laisser aux entreprises industrielles encore autonomes ou à venir la liberté d'initier des discriminations tarifaires entre les différents commerçants, afin de rémunérer et inciter à une concurrence plus qualitative: tant et si bien que le bilan dans le temps sera positif. Reste que cette argumentation ne peut pas être indiscutable, tant du fait de l'inexpugnable incertitude sur l'application du critère d'abus de dépendance économique que de l'inévitable incertitude sur les comportements économiques. B6) Le recours aux arguments d'autorité par la citation d'experts: Les références dans le discours du OIBCD à des travaux et articles d'experts procèdent de la volonté de faire reconnaître à l'auditoire l'autorité du discours tenu44, de la volonté d'arrêter les critiques, d'empêcher les questionnements (par exemple sur le critère d'abus de dépendance économique) et les en termes stratégiques des propositions du OIBCD. Dans la lettre du 10 novembre 1994 à la CGPME, le GIBCD, c'est un fait nouveau, cite expressément ses références afin de montrer la légitimité et l'autorité des énoncés du GIBCD, jusqu'alors discutés. Par exemple dans cette lettre, à l'affirmation de M.Frybourg, le 7 novembre: "Le titre IV de l'ordonnance de 1986 reprend les articles 85 et 86 du Traîté de Rome, notamment sur la question de la transparence : le nouveau titre IV que suggère le GIBCD va donc à l'encontre du droit européen de la concurrence", le GIBCD répond: "Comme source, nous allons nous référer à la réponse en date du 10 septembre 1993 que M.Karel Van Miert, membre de la Commission des Communautés Européennes, chargé cr la concurrence, a faite au groupe de travail animé par M.Charié, député. La présentation par M.Van Miert des droits européen et français de la concurrence rejoint celle d'autres experts, qu'ils soient professeurs de droit et d'économieou praticiens de la vie des affaires (souvent les deux à la fois: avocats, experts judiciaires). Citons parmi ces experts: - M.Vogel, avocat, Professeur de droit à Paris II et co-auteur notamment de : "Le droit européen des affaires", 2è édition, Dalloz, 1994. - M.Glais, Professeur d'économie à l'Université de Rennes 1, expert judiciaire et auteur de nombreux livres et articles dont: "L'état de dépendance économique au sens de l'art.8 de l'ordonnance du 1er décembre 1986 : analyse économique", Gazette du Palais, mai-juin 1989. - M.Geneste, rapporteur au Conseil de la concurrence, chargé d'enseignement à Paris X et auteur de: "Droitfrançais et droit européen de la concurrence", Ed. Eyrolles, 1991. - M.Mousseron, Professeur de droit à l'Université de Montpellier et à l'Ecole du Droit de l'Entreprise: M.Mousseron est parmi d'autres signataire de notre charte; lors du séminaire de la Direction de la Prévision (Ministère de l'Economie et des Finances) consacré aux pratiques restrictives (6 avril 1994), il a insisté sur le caractère particulièrement restrictif et 44 en sens inverse, on peut voir dans ces citations d'experts - et d'économistes dans la « plateforme » du GIBCD - un effet de communication (Boudon), par lequel il existe une relation d'autorité entre les discours de ces experts et la représentation de fond du GIBCD, qui en reconnaît l'autorité. 248 mécaniste du droit français de la concurrence, le détail de cette spécificité l'interdiction du refus de vente, l'encadrement strict des discriminations étant et les obligations lourdes de justification comme instrument des deux points précédents. De même, dans sa note de synthèse du 29 mai 1995 relative à la notion d'abus de dépendance économique, le GIBCD fournit une "bibliographie fondamentale" composée de contributions d'experts juristes et économistes: «- BODSCANT,Rémy, "La notion de dépendance économique en droit allemand", Actes du colloque AFEC du 8 janvier 1993, pp.23-30, - BaRRA, Pierre, "Etat de la jurisprudence française en matière d'exploitation abusive de la dépendance économique", ibid, pp.31-36, - DE MEllO, Xavier, "Dépendance économique ou position dominante?", ibid, pp.37-44, - GLAIS, Michel, "L'exploitation abusive d'un état de dépendance économique : analyse économique du droit et de la jurisprudence française de la concurrence", Revue d'Economie Industrielle, n068, pp.81-98, 2è trimestre 1994. » B7) La mise en avant d'autres opinions extérieures favorables: La référence à des opinions extérieures favorables est susceptible de permettre d'être plus crédible aux yeux de l'interlocuteur, qui voit ainsi avancé un argument d'autorité (encore faut-il que l'auditoire représentation reconnaisse cette autorité) qu'a l'interlocuteur ; en même temps, du processus de décision cette référence et l'incite construit la ou le désincite, rationnellement et politiquement, à remettre en cause sa représentation sur le sujet discuté. Ainsi, dès le 8 février 1994, date de la première rencontre entre le GIBCD et la CGPME, l'argumentation porte sur la situation de négociation elle-même: opposés au GIBCD, dit M.Frybourg. faible, sert d'argument l'ANlA et l'ILEC sont Le poids politique du GIBCD, présenté comme (purement politique) pour relativ la position du GIBCD et désinciter la CGPME à remettre en cause sa position actuelle sur l'ordonnance de 1986. En sens inverse, M.de Malatinszky met en avant la collaboration avec le Ministère de l'Industrie pour montrer la crédibilité rationnelle et politique de la campagne du GIBCD pour une réforme du droit de la concurrence. Lors de la réunion du 8 septembre 1994 de la Commission Juridique et Fiscale de la CGPME, M.Ferey, Président de la Commission, déclare que "le sujet du refus de vente, aussi important qu'il soit, n'est plus d'actualité", alors qu'aucun consensus n'est réalisé 249 entre industriels à l'approche des élections présidentielles, d'où le probable report de la réforme après celles-ci. Le GIBCn contre-argumente - en vain - en avançant qu'une réforme du droit de la concurrence est toujours possible pour l'automne et qu'une prise de position - le GIBCD l'espère favorable - de la CGPME irait en ce sens. Cet exemple montre l'importance la représentation qu'a chacun des acteurs de l'ensemble du processus de décision comprenant les prises de position des autres acteurs, comment elle intervient pour les (dés)inciter à questionner leur représentation sur la concurence déloyale et à s'engager, également comment cette représentation peut faire l'objet d'un travail discursif de construction, pour persuader l'auditoire de se mobiliser. Le 14 mars 1995, lors de sa reprise de contact avec les fonctionnaires du SAEI, M.de Malatinszky effectue et utilise volontairement comme argument de crédibilité et d'incitation à agir le recensement des positions des différents intervenants professionnels sur le sujet qui ont évolué dans le sens du GIBCn : ainsi en est-il de l'Union Française des Industries Pétrolières (et autres signataires de la charte du GIBCn), de la CGPME, et de l'ILEC (la progression de M. Robin est signalée, telle qu'elle apparaît dans sa lettre du Il juillet 1994 de commentaire des propositions de M.Charié ; M.de Malatinszky parle également de "la bonne surprise avec l'organisation du colloque Dietsch-Vogel" du 27 octobre 1994 au cours duquel M.Vogel met en évidence la spécificité contraignante du droit français). B8) La dissimulation de certaines ramifications de raisonnement:
La stratégie discursive procède par l'énoncé d'arguments, mais aussi par la dissimulation, qui entretient volontairement l'ignorance, de certaines ramifications de raisonnement (cas, thèmes connexes, questionnements) qui pourraient compromettre la stabilisation autour (d'une partie) du discours du GIBCD. Ainsi, dans le souci de privilégier un changement du texte de la loi - ce qui est l'assurance d'une rupture totale par rapport à la réglementation existante - à un pari sur des avancées de la jurisprudence DGCCRF, qui maintiendrait de toute manière le pouvoir d'influence de la le GIBCD a tendance à minimiser dans son discours l'adaptabilité de l'ordonnance de 1986, quitte à dissimuler des cas contraires. Ainsi, la décision du TGI de Châlon-sur-Saône (21 juin 1994, Ministère de l'EconoTIÙeci SA Sodimont) est rationnellement bonne pour les industriels mais gênante pour la stratégie discursive du GIBCD. Si l'argumentation du GIBCn, qui dit que l'ordonnance est 250 déséquilibrée dans son impact, reste en général valable, le jugement du TGI de Chalon-surSaône vient apporter une exception à partir de laquelle, profitant de l'incertitude quant à l'avenir, il est possible d'avancer l'argument qu'une inflexion est en cours dans l'application de la loi. D'où la note "personnelle" de Jean Ricatte, juriste de la FIEE, à M.Anus au sujet de cette décision de justice: "Bien qu'il s'agisse d'un jugement qui nous serait plutôt favorable, c'est la première fois et ce n'est qu'une décision isolée d'un TGI (premier degré). Donc, personnellement, je pense que nous avons intérêt à le voir, mais pas intérêt à l'ébruiter car c'est un magnifique prétexte pour la DGCCRF de ne toucher à rien. Qu'en pensez-vous?" De même la stabilisation dissimulation de certaines par le amCD dans la mesure de certains qui sont "ignorés" cause les avancées acquises: avancées autres de l'auditoire où cela permet une adhésion acquises dans la discussion raisonnements qui font partie mais dont l'explicitation de l'auditoire de cet auditoire entraîne de sa remettrait ne sont "travaillées" au discours la du GIBCD, en que ce qui est l'objectif. Suite à la réunion de la Commission Juridique et Fiscale du 13 février 1995 où Mme Vilmart a recueilli le soutien des personnes présentes autour de propositions similaires à celles du GIBCD, il est prévu que tous les participants adressent à Mme Prévost une note de commentaire sur l'exposé et les propositions de Mme Vilmart. M.de Malatinszky se concerte avec Mme Vilmart sur le contenu d'un premier projet de lettre. Ce contenu marque un accord sur tous les points évoqués par Mme Vilmart, convient à celle-ci sauf sur la question de la "transparence" que le GIBCD évoque et que Mme Vilmart conseille de ne pas "ressortir", car cela remettrait en cause l'avancée enregistrée sur le refus de vente et les pratiques tarifaires discriminatoires. Cette première version de lettre, avant concertation avec Mme Vilmart, se termine en effet ainsi: "En complément des points précédents, le GIBCD voudrait attirer l'attention sur la question des obligations de transparence tarifaire présentes dans les articles 31 et 33 de l'ordonnance de 1986 relatifs aux règles de facturation et aux obligations de comunication des barêmes de prix et conditions de vente. En effet, la transparence n'est autre chose que le bras mécanique de la réglementation actuelle sur les discriminations tarifaires. Il est bon, pour toutes les raisons précédemment exposées, de libérer la possibilité de différencier les tarifs et conditions de vente, sans faire courir aux entreprises d'insécurité juridique ; encore faut-il que cette insécurité juridique ne soit pas perpétuée par les articles 31 et 33 de l'ordonnance. L'étude ci-jointe de MM. Louis Vogel, Professeur à l'Université Paris II et au Collège d'Europe, et Joseph Vogel, avocat au Barreau de Paris, pose bien la problématique des obligations de transparence []45 » C'est afin de renforcer la stabilisation et de ne pas réouvrir la discussion de la Commission Juridique et Fiscale autour des propos de Mme Vilmart que le GlBCD marque un soutien fort dans sa lettre du 1er mars à Mme Prévost et qu'il accepte de ne pas réouvrir le débat sur les obligations de transparence prévues par l'article 31 de l'ordonnance. De même, dans la copie de la note de synthèse sur l'abus de dépendance économique adressée à Mme Jordan-Dassonville et qui est initialement destinée à M.Debrock afin de stabiliser la discussion sur ce critère juridique, l'intention de stabilisation n'est pas évoquée, afin précisément de ne pas susciter le doute: "Pour votre information, je vous adresse une note de synthèse que notre groupe de juristes a rédigée sur l'abus de dépendance économique." C) L'importance de la forme concrète du discours sur un sujet complexe, afin de persuader l'auditoire "ignorant" : Un discours complexe et contre-intuitif (il va à l'encontre de ce que suggère la réalité sensible immédiate) tel que celui du OIBCD, pour être persuasif, doit gérer par son support, par sa disposition, son ordonnancement, interlocuteurs par sa clarté, l'''ignorance'' qui, sans pratique, sans connaissance ni maîtrise particulières (effet de situation: de ses du sujet expérience, compétence, formation), sans la même représentation initiale, interviennent dans le processus de décision. Cl) Le choix du support écrit: la sédimentation textuelle des arguments du GIBCD: Le texte sert de guide pour l'apprentissage de l'interlocuteur sur ce sujet complexe, aux multiples ramifications possibles, d'ailleurs difficile à saisir de façon cohérente et exhaustive en mots: l'inscription littéraire aide à la diffusion d'un discours complexe et à sa sédimentation langagière. omcn d'un support bilatérale, le amcn appuie sa C'est vis-à-vis de la COPME que l'importance du choix par le spécifique apparaît la plus nettement. Dans cette relation 45 il s'agit de l'article de MM.Vogel déjà vu au chapitre 3. 252 recherche de stabilisation autour de ses idées et de son langage par une forte présence textuelle dont M.de Malatinszky explicite lui-même l'intérêt lors de la préparation du commentaire des propositions du 15 février 1995 de Mme Vilmart : "de toute manière, seul l'écrit compte". Les nombreux textes écrits, argumentaires que le GrnCD adresse à la CGPME servent son travail de persuasion en permettant un choix et une disposition (arrangement) précis, calculés d'énoncés, plus difficiles à effectuer lors de discussions orales moins maîtrisables : manque de temps pour développer une argumentation, mauvais choix de mots sur l'instant, facteurs aléatoires qui influencent la discussion (mauvaise forme de l'orateur qui fait une mauvaise prestation, présence d'un "entrant" sur le sujet qui vient perturber la discussion : on retrouve les contraintes organisationnelles). Une véritable sédimentation s'opère lorsque les arguments sont répétés lors de textes successifs, avec pour objectif la stabilisation de l'opinion de l'auditoire autour des propositions du GIBCD. Après la réunion du 8 février 1994, qui laisse apparaître des différences de raisonnement très sensibles, l'envoi par M.de Malatinszky, le 10 février, d'un courrier à la CGPME illustre la recherche par le GIBCD, grâce à une trace écrite du discours tenu le 8 février, oe sédimentation de son message, qui est complexe - surtout pour des "entrants" nécessairement "ignorants" (méconnaissance du sujet, des faits, du droit, des théories; inhabitude à poursuivre longtemps le raisonnement, dans toutes ses ramifications) sur le sujet. A travers l'envoi de la "position du GmCD sur le tra.IÎementdes pratiques déloyales" et des "propositions détaillées du GmCD", le GIBCD fournit des documents précis qui serviront de référence et d'appui dans la discussion. De même, suite à la réunion CGPME du 6 avril 1994, M.Anus insiste dans son pro memoria sur l'importance d'une réponse par écrit, d'autant que le déroulement de la réunion ne l'a pas satisfait, car il n'a pas permis une bonne diffusion des arguments (c'est un "fiasco", selon le mot de M.Anus, même s'il y a eu rattrapage sur la fin). La forme écrite permet une "présence" aux arguments du GmCD qui sédimentent alors autrement mieux que dans le flot "chaotique" d'un débat: le caractère éparpillé des interrogations de M.Frybourg appelle de la part du GIBCD une réponse qui, parce qu'elle est écrite, permet un ordonnancement et une stabilisation, ur des propositions du GIBCD. Avec le même objectif de stabilisation et de clôture du questionnement, le 23 juin 1994, le GIBCD récapitule dans une lettre à la CGPME les arguments déjà avancés. On retrouve l'importance du support écrit dans la relation du GIBCD avec M.Charié. En vue de la réunion du 1er mars 1994, le GIBCD prépare un dossier pour les participants, constitué des papiers que le GIBCD entend laisser à M.Charié : fiche d'identité du GIBCD, versions abstract et développée de la "prise de position du GIBCD pour une réforme du droit de la concurrence, contre les pratiques déloyales". Tous ces documents, par leur existence et leur mode de présentation, concourent au même but : la mise en place et la stabilisation d'une nouvelle représentation dans l'esprit de M.Charié, ici grâce à un appui textuel plus mmûisable et durable que l'expression orale. e2) L'importance de la clarté, l'ordonnancement du discours: Parmi les différentes interactions critiques approfondies, c'est avec la CGPME que le GmCD le plus manifestement joue, à des fins de stabilisation, sur la clarté et l'ordonnancement de son discours. Suite à la demande de M.Anus qui tient à ce que le discours du GIBCD soit clair - pour permettre une bonne assimilation par l'auditoire -, la lettre du GIBCD du 8 avril 1994 suit une disposition (au sens de la rhétorique) particulière. Avant d'entrer dans le détail de l'argumentation qui risque de "noyer" son lecteur, la réponse écrite, dans la lettre de couverture marque : la volonté de montrer l'enjeu, commun à la CGPME et au GIBCD, d'une réforme de l'ordonnance de 1986 ; la volonté de désamorcer le réflexe (qui est un effet de disposition) de la CGPME "les gros contre les petits" ; la reprise, toujours à la demande de M.Anus, du langage "dur" qui avait porté le 6 avril : "Cette concurrence destructrice fait également souffrir les détaillants, iusQu'à leur disparition pure et simple." Puis, l'ordre de traitement des questions permet de tracer la volonté du GIBCD de "stabiliser" le débat autour de ses ramifications de raisonnement et de ses propositions, de clôre les questionnements sur son discours. IV> LE BILAN DU TRAVAILDE PERSUASIONDU GrnCD DANS LES INTERACTIONS PERSUASIVESCRITIQUES APPROFONDiES:
Le bilan local et immédiat du travail spécifique de persuasion du GrnCD est, dans le cas d'interactions critiques approfondies, évaluable avec une présomption forte de validité de l'évaluation, dans la mesure où : d'une part, chaque auditoire émet une prise de position visible, isolée, le plus souvent sous la forme d'un discours oral ou écrit (texte) qui l'engage ; d'autre part, cette prise de position ne peut pas ne pas être positionnée par rapport au discours du GrnCD à cause du couplage réel, serré et poursuivi dans le temps entre le GrnCD et l'auditoire, pour qui la relation avec le GrnCD a une consistance, une présence, même s'il ne retient pas in fine les propositions du GrnCD46. Les deux cas où l'évaluation du travail spécifique du GrnCD est un peu plus délicate sont : d'une part, celui de l'interaction en partie indirecte avec M.Charié, député-rapporteur; d'autre part, celui de l'interaction critique approfondie avec Mlle Audier du cabinet de M.Raffarin, Ministre des PME, du Commerce et de l'Artisanat Plus accessoirement - nous aurons l'occasion d'y revenir dans les deux chapitres suivants -, nous nous intéressons au bilan à terme des interventions du GrnCD étudiées ici. A) Le bilan des interactions entre le GIBCD et M.Charié, comme député puis députérapporteur: Al) L'aboutissement de l'interaction entre le GIBCD et M.Charié, comme simple député: L'aboutissement de cette interaction est un bon exemple de la possibilité d'irréconciliabilité des points de vue du fait de l'absence de possibilité de démonstration ignante, avec seulement une modification des propositions de M.Charié sur des points techniques objectivement corrigeables. 46 d'ailleurs, le suivi détaillé de ce couplage permet d'affiner l'interprétation du résultat de l'interaction. La représentation - qui est stable - de M.Charié de la réglementation des relations entre industriels et distributeurs se comprend par des effets de situation, tant de position que de disposition. Contrairement au GIBCD, la représentation de M.Charié tend à exclure l'incertitude et le conflit dans la négociation "transparence de la transaction.
| 28,150
|
58/hal-auf.archives-ouvertes.fr-hal-01212032-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,901
| 12,426
|
Centre de Recherche et d'Action pour la Paix (CERAP) Institut de la Dignité et des Droits Humains (IDDH) Ecole des Sciences Morales et Politiques d'Afrique de l'Ouest (ESMPAO) 08 BP 2088 Abidjan 08/ Tel: (+225) 22 40 47 20, Fax: (+225) 22 44 84 38 E-mail: [email protected] / Site Web: http/www.cerap-inades.org
REGARD ETHIQUE SUR DES OUTILS D'ANALYSE DES IMPACTS ENVIRONNEMENTAUX: CONTRIBUTION A DE NOUVELLES METHODES POUR JAT CONSULTING
Mémoire de Master II en Ethique et Gouvernance Option : Ethique Economique et Développement Durable Présenté et soutenu le 11 Septembre 2013 par : YENTCHARE M. Pag-yendu Membres du jury : Pr N'CHO N'Guessan Valentin, Président du Jury Dr KOUAKOU Guy, Assesseur Pr LADO Ludovic, Directeur scientifique M. Fulgence GBEGBO (représentant Joël AGBEMELOTSOMAFO, Directeur Général de JAT Consulting), Maître de stage Année universitaire : 2011-2012 Dédicace A tous les membres ma famille, juste Merci 2 Remerciements La réalisation de ce travail de recherche a été longue et laborieuse, mais surtout passionnante. Je voudrais ici exprimer toute ma reconnaissance à toutes celles et à tous ceux qui m'ont apporté leur soutien, et tout particulièrement : - A Monsieur Ludovic Lado, Directeur de mémoire pour sa confiance, ses conseils avisés et ses encouragements à croire en moi-même ; - A Monsieur Jean Claude Lavigne, mon frère et confident, pour sa présence constante, sa patience et son accompagnement humain, méthodique et fraternel tout au long de ce travail de recherche; - A Madame Isabelle Cadet, Enseignant-Chercheur à l'Université Catholique de Lyon pour cette dévotion exceptionnelle à me conseiller sagement dans la réussite de mes projets professionnels et personnels ; - A Madame Geneviève Sanzé, pour sa dévotion et l'humilité perpétuelle à laquelle sa posture humaine m'invite ; - A Madame Ranie-Didice Bah, pour son empressement inconditionnel à me soutenir dans les péripéties de ce travail de recherche, et l'image de bienveillance et d'altruisme qu'elle exprime et par laquelle je veux pour toujours me distinguer ; - Au Père Emile Adiko, mon Tuteur, sans le soutien de tous ordres sans lesquels je n'aurais pas pu faire cette formation hautement humaine ; - A Monsieur Joël Agbemelo-Tsomafo, Directeur Général de JAT Consulting et à tous les membres de son personnel chaleureux, pour leurs encouragements et leur générosité intellectuelle ; - A Tatiana de Souza, pour son amour fraternel et sa grande sollicitude qui m'a fait découvrir la pratique des Evaluations Environnementales au Togo ; - A toutes les personnes que je ne puis citer nommément, mais dont la présence et l'amitié ont façonné l'être que je suis devenu et que je pourrais encore affiner afin d'être le meilleur ce que je puis être ; 3 SIGLES ET ABREVIATIONS
:
Agence Nationale de Gestion de l'Environnement ANGE ACP/CEE : Afrique Caraïbes Pacifique / Communauté Economique Européenne BOAD : Banque Ouest Africaine de Développement EIE : Etude d'Impact sur l'Environnement EIES : Etude d'Impact Environnemental et Social EE : Evaluations Environnementales EEP : Engagement Environnemental du Promoteur IAIA : International Association for Impact Assessment JAT Consulting: Joel AGBEMELO-TSOMAFO Consulting NEPA : National Environmental Policy Act PNUD
:
Programme des Nations Unies pour le Développement
PNUE :
Programme des Nations Unies
pour
L'Environnement UEMOA
:
Union Economique et Monétaire Ouest Africaine SAF
:
Sustainability Assessment Framework SIFEE : Sécrétariat International Francophone de l'Evaluation Environnementale 4
Liste des tableaux, figures et encadrés
Tableau n°1 : Synoptique des méthodes et phases d'activités d'une EIE Tableau n°2 : Les outils appropriés à chaque phase de l'EIE Tableau n°3 : Matrice d'identification des impacts selon Léopold, appliquée à un projet de construction d'une usine de raffinerie alimentaire Tableau n°4 : Matrice d'identification des impacts selon Léopold, appliquée à un projet de un projet de concassage de granites (Togo) Tableau n°5 : Grille de détermination de l'importance absolue (Fecteau, 1997) Tableau n° 6: Grille de détermination de l'importance relative d'un impact Tableau n° 7 : Exemple d'une matrice de Léopold extraite de rapport MINEP Cameroun
Figure : Figure n°1 : Part du système
de valeurs des individus et des communautés dans l'analyse d'un impact potentiel ayant pour valeur relative symbolique « 1 » Encadrés : Encadré n°1 : Valeur relative des paramètres de la grille de Fecteau Encadré n°2 : Description de l'espèce Guiera senegalensis Encadr
é
n°3 : L'enquête Delphi Encadré n°4 : Essai de méthodes pour JAT Consulting Liste des annexes 5
Annexe n°1 :
Table
au de définition des 22 outils selon Canter Annexe n°2 : Liste des consultants en EIE au TOGO Annexe n°3 : La forêt de Crécy Annexe
n
°4
:
Typologie des postures par rapport au monde qui accept
ent le changement et é
thique
s
correspondantes
Annexe n°5 : Grille de détermination des risques de JAT Consulting 6 RESUME
Les outils d'analyse des impacts environnementaux sont de précieux instruments de mesure de l'acuité avec laquelle un projet économique peut perturber l'environnement naturel et humain. ABSTRACT: Impacts analysis tools are valuable instruments for measuring the importance with which an economic project can disrupt the natural and human environment. In his practice of Environmental Impact Assessment, JAT Consulting, a specialized office in Environmental Assessments, deploys the Leopold's matrix and Fecteau's grid, the most recognized methods in countries of the West African Economic and Monetary Union (WAEMU), respectively for the identification and the assessment of potential impacts of a project. However, these tools are not neutral. Ethical choices motivate their construction and are expressed when applied. Deciphering these ethical choices through an epistemological 7 evaluation can be an interesting way to replace human factors at the heart of decisionmaking process, according to the perspective of an ethics of a sustainable development that wants to be human centered. Then, we hope to contribute to a paradigm shift in the traditional approach in the analysis of environmental impacts, allowing JAT Consulting to gain a better position in the competitive landscape of Togo. The suggested approach is based on applied ethics and is betting on a greater social acceptability of development projects.
Keywords: Humanly Sustainable Development, sustainability, deep ecology, ethics, technician ethics, epistemological evaluation, heuristics of fear, Leopold matrix, Fecteau grid, shared values. Dédicace i Remerciements ii Sigles et abréviations iii Liste des tableaux, figures et encadrés iv Résumé
v INTRODUCTION GÉNÉRALE 1 CHAPITRE I : CADRE THEORIQUE ET CONCEPTUEL DE L'ETUDE
6 I- Processus d'étude d'impact environnemental et social en pratique 7 II- Les outils déployés lors d'une étude d'impact environnemental et social 10 III- Justification de l'étude : une inspiration fondée sur l' « évaluation de la durabilité »14 IV- V- Objectifs et intérêt de l'étude 21 VI- Clarification de quelques concepts clés 26
CHAPITRE II : CADRE PHYSIQUE ET INSTITUTIONNEL DE L'ETUDE
32 I- Légalisations des EIES 32 II- Analyse éthique des textes fondant les EIES au Togo 37 III- Les acteurs des EIES au Togo 43 IV- JAT Consulting et ses outils d'analyse des impacts 46
CHAPITRE III : EVALUATION DES OUTILS D'ANALYSE DES IMPACTS DE JAT CONSULTING
52 I- Description des méthodes de JAT Consulting 52 II- Une évaluation des outils 62
CHAPITRE IV : UNE TENTATIVE DE DECRYPTAGE ETHIQUE
88 I- Experts et populations 88 II- La prise en compte du temps 105
CHAPITRE V : DES ELEMENTS DE RECOMMANDATIONS
116 I- La participation des populations 117 II- Une analyse des impacts environnementaux enrichie par d'autres éléments 122 III- Des remarques plus générales sur la philosophie des impacts environnementaux
124 CONCLUSION GENERALE 126 BIBLIOGRAPHIE 130 ANNEXES 136 TABLE DES MATIERES 146 9 INTRODUCTION GENERALE
« Connaître et penser, ce n'est pas arriver à une vérité certaine, c'est dialoguer avec l'incertitude » Edgar Morin Le National Environmental Policy Act (NEPA), relatif à la prise en compte des préoccupations environnementales dès la conception des plans et activité des agences américaines, est l'acte juridique précurseur de impacts sur l'environnement. Il a été adopté le 22 Décembre 1969, puis promulgué le 1er Janvier 1970 par le président américain Richard Nixon. Depuis, plusieurs actes juridiques d'envergure mondiale ou régionale ont formulé des dispositions en faveur de la protection de l'environnement, en donnant une grande importance aux Etudes d'Impact sur l'Environnement (EIE). Il s'agit entre autres de la Déclaration de la Conférence des Nations Unies sur l'environnement humain de Stockholm de 1972, de la Résolution 37/7 du 28 Octobre 1982 relative à la Charte Mondiale de la Nature1, et de la Déclaration du Sommet de la Terre à Rio en 19922, de la Convention sur la Diversité Biologique adoptée en 19923 et de la Convention de Lomé IV ACP-CEE.4 1 Selon le Principe 11, « les activités pouvant avoir un impact sur la nature seront contrôlées et les meilleures techniques disponibles, susceptibles de diminuer l'importance des risques ou d'autres effets nuisibles sur la nature seront employées, en particulier : (a) les activités qui risquent de causer des dommages irréversibles à la nature seront évitées ; (b) les activités comportant un degré élevé de risques pour la nature seront précédées d'un examen approfondi ; (c) les activités pouvant perturber la nature seront précédées d'une évaluation de leurs conséquences et des études concernant l'impact sur la nature des projets de développement seront menées suffisamment à l'avance ; au cas où elles seraient entreprises, elles devront être planifiées et exécutées de façon à réduire au minimum les effets nuisibles qui pourraient en résulter ». 2 Son Principe 17 stipule : « une étude d'impact, en tant qu'instrument national, doit être entreprise dans le cas des activités envisagées qui risquent d'avoir des effets nocifs importants sur l'environnement et dépendent de la décision d'une autorité nationale compétente ». 3 L'article 14.1 de cette convention exige que « chaque Partie contractante, dans la mesure du possible et, selon qu'il conviendra, (a) adopte les mesures permettant d'exiger l'évaluation des impacts sur l'environnement des projets qu'elle a proposés et
qui sont susceptibles de nuire sensiblement à la diversité 10
De plus, plusieurs banques de développement et agences d'aides bilatérales ont adopté des procédures d'EIE qu'elles appliquent dans le cadre des projets qu'elles financent. Par ailleurs, les Etats se sont lancés dans la course à l'adoption de textes sur la protection de l'environnement au nombre desquels les EIE occupent une place fondamentale. Les EIE peuvent être perçues comme un mécanisme permettant d'évaluer les incidences sur l'environnement des projets économiques. Elles font partie d'une gamme plus importante d'outils qui servent aux évaluations environnementales de manière générale. Cet intérêt croissant pour les EIE ressortit d'une posture responsable : en effet, en raison des modes de production et de consommation « voraces »9, caractéristiques de la société contemporaine, qui entraînent une dégradation extrêmement rapide de l'environnement, il s'est inscrit, dans le cycle des projets de développement, une conscience universelle qui a consisté à adopter des mesures prudentielles en vue de sauvegarder les ressources environnementales. La raison en est que les EIE sont un outil de contrôle de la pertinence de l'activité économique, elle-même destinée à satisfaire les besoins de l'être humain dans la durée. Aujourd'hui, les études d'impact sur l'environnement sont une réalité. Elles sont considérées comme un outil de décision. Aussi, ont-elles pour objectif de définir un ensemble de problèmes environnementaux qu'on peut anticiper en incorporant dans les actions de développement les mesures d'atténuation les plus appropriées. Celles-ci impliquent de déterminer les bénéfices et coûts environnementaux du projet, ainsi que son acceptabilité économique, environnementale et sociale. Le développement des évaluations environnementales, en raison des impératifs du développement durable, a conduit à une plus grande intégration de la dimension sociale dans la réalisation des EIE. La conséquence de cette évolution se marque au plan de l'expression par le passage de la terminologie d'« Etude d'Impact Environnemental » au concept d' « Etude d'Impact Environnemental et Social ». En effet, la réalisation du développement durable exige la mise en place d'un système de gouvernance efficace. Celle-ci nécessite une grande participation des parties prenantes qui se trouvent être prioritairement intéressées par le bien-être attaché à ce développement durable. Comme l'observent Pierre André, Claude E. Delisle et Jean-Pierre Rev t, « Le développement durable a besoin d'une mosaïque d'institutions, de politiques et de valeurs : en un mot, il a besoin d'une bonne gestion des affaires publiques qui crée un écosystème politique à même de créer un écosystème naturel ».10 Ainsi, les intérêts des bénéficiaires d'un projet doivent être pris en compte à travers une participation du public. Dans le cadre de cette étude, nous emploierons invariablement les expressions « étude 9 V. dans ce sens Hans Jonas, «
Pour
une Ethique
du
Futur
», É
ditions Payot
et
Rivages
,
Paris
,
1998
, p. 106107. 10 Pierre André, Claude E. Delisle, Jean-Pierre Revéret, L'évaluation des impacts sur l'environnement : processus, acteurs et pratique pour un développement durable, Presses Internationales Polytechnique, 3è édition, Québec, Canada, 2010, p.24. d'impact sur11 l'environnement (EIE) » ou « étude d'impact environnemental et social (EIES) » pour désigner la même réalité. Parallèlement aux développements d'ordre philosophique et conceptuel à propos des études d'impacts sur l'environnement, de nombreuses méthodes scientifiques et techniques ont été élaborées par des chercheurs en vue d'identifier et d'évaluer les impacts que les projets de développement sont susceptibles de provoquer sur l'environnement de manière globale. Ces méthodes d'identification et d'évaluation des impacts, dites méthodes d'analyse des impacts potentiels sur l'environnement, sont l'objet de la présente étude. Imaginer et concevoir des outils d'analyse des impacts potentiels est une activité qui n'est assujettie au respect d'aucune réglementation particulière. Par ailleurs, il est possible de déterminer dans chaque méthode les différentes conceptions qui dénotent de la place faite à l'humain dans les projets de développement et dans la nature. C'est dire que derrière chaque modèle utilisé pour mesurer les impacts, il y a des a priori scientifiques et méthodologiques. Ce travail dans le cadre du Master en Ethique et Gouvernance, option Ethique économique et Développement durable au Centre de Recherche et d'Action pour la Paix (CERAP) voudrait, en utilisant les enseignements en Evaluations Environnementales (EE), spécialement en Etude d'Impact Environnemental et Social (EIES) et en Ethique Economique et Sociale mettre en évidence les a priori des méthodes d'analyse d'impacts. Ce premier niveau de connaissance peut être précieux pour fonder quelques suggestions afin de mieux prendre en compte l'humain comme étant le centre de la réflexion dans une éthique du développement durable. Afin que cette étude ne soit pas une monographie sans assises concrètes provenant d'une réflexion purement idéologique, elle s'appu sur la pratique de JAT Consulting, un bureau d'évaluations environnementales, sis à Lomé au Togo qui a bien voulu nous accueillir dans le cadre de notre stage de formation. Aussi, c'est en regard des méthodes déployées par ce bureau que la contribution recherchée s'opèrera. Et c'est ici qu'apparaît 11 Il convient de remarquer qu'en employant « étude d'impact sur l'environnement », nous nous mettons dans une perspective de développement durable où le social est pris en compte. L'acronyme « EIE » n'est donc pas à comprendre comme étude d'impact environnemental, qui ne laissait pas de place au volet social dans l'évaluation environnementale envisagée. sa principale limite : en effet, l'inculturation des méthodes d'analyse des impacts potentiels sur l'environnement dans les études d'impact environnemental et social de JAT Consulting ne reflète pas nécessairement les exigences de l'art. Les manières de faire de JAT intègrent un ensemble de croyances, de spécificités d'ordre managérial et même d'imprécisions qui colorent les pratiques et peuvent s'éloigner de ce que doit être au sens pur une EIES. Mais cette faiblesse altère peu l'ambition de la recherche. En effet, en justifiant l'orientation recherche-action par laquelle cette étude devrait se caractériser, elle nous permet de participer au développement du service que rend JAT Consulting à l'économie et à la société togolaise. En suggérant des pistes tant sur l'utilisation des méthodes que sur le contenu des grilles d'évaluation (en particulier en mettant l'accent sur le développement humain), les outils utilisés au Togo pourront s'orienter vers une plus grande pertinence. Tel est du moins le désir que manifeste notre recherche. Cette recherche fait l'objet d'une subdivision pour en assurer l'intelligibilité : un premier chapitre (Chapitre I) fixe un cadre conceptuel nécessaire pour assurer la convenance entre la problématique à traiter et les légitimes appréhensions du lecteur, spécialiste ou profane de la matière des études d'impact environnemental et social. Le deuxième chapitre (Chapitre II) expose le cadre physique et institutionnel de l'étude, dans le but de préciser le paysage dans lequel JAT Consulting évolue. Le troisième chapitre (Chapitre III) fait une présentation des méthodes employées par JAT Consulting et présente les différentes caractéristiques qui motivent un besoin d'amélioration. Le quatrième chapitre (Chapitre IV) propose une réflexion sur les bases éthiques pouvant mieux prendre en compte place des humains au sein des outils d'analyse d'impacts. Le dernier chapitre (Chapitre V) formule quelques recommandations pour JAT Consulting et plus largement pour les bureaux d'étude togolais, en vue de la mise au point d'éléments pouvant être utilisés pour un nouvel outil d'analyse des impacts potentiels dans le cadre d'une EIES. 14 CHAPITRE I : CADRE THEORIQUE ET CONCEPTUEL DE L'ETUDE
« Les richesses les plus précieuses sont les méthodes » Frédéric Nietzsche Une réflexion sur les outils d'analyse des impacts potentiels qu'un projet est susceptible d'engendrer sur l'environnement naturel et humain nécessite au préalable de faire une présentation du processus d'une EIES en général (I), afin de situer à quelles étapes de celle-ci ils sont déployés (II). Etant donné qu'il est reconnu que dans une certaine mesure12, les EIES contribuent au développement durable, il peut être intéressant de présenter un outil en particulier, le « Sustainability Assessment Framework » qui a été déployé au Portugal en vue de mesurer le potentiel de contribution des EIES à la réalisation du développement durable. En effet, l'idée fondatrice de cette approche qui consiste à évaluer la durabilité dans les EIES justifie (III) l'orientation de notre recherche. La présentation de la problématique (IV) permet de présenter clairement les questions et objectifs de recherche, dont l'objet demeure les outils d'analyse des impacts potentiels que JAT Consulting déploie. En tout état de cause, elle ne peut se faire sans une clarification des concepts clés qui sont employés (V). 12 Le besoin de relativiser notre propos se justifie par le fait que les Evaluations Environnementales Stratégiques sont reconnues comme étant des instruments qui permettent de mieux prendre en compte le développement durable. 15 Revue de littérature : Processus d'étude d'impact environnemental et social en pratique
Cette partie de l'étude présente brièvement le processus d'évaluation environnementale. Elle est construite à partir d'une lecture croisée d'une part de Pierre André, Claude E. Delisle, Jean-Pierre Revéret13 et d'autre part de Gaétan A. Leduc et Michel Raymond14 qui constituent les principales références francophones de la discipline. En outre, cette lecture permet de reconstituer, à l'aune des textes législatifs togolais et du Guide général de réalisation des EIES au Togo - conçu par JAT Consulting à la suite d'une adjudication d'un marché public du Programme des Nations Unies pour le Développement (PNUD) – le processus d'étude d'impact environnemental et social. De manière générale, le processus d'EIES commence par une phase de tri préliminaire (ou screening). Elle a essentiellement pour objectif de déterminer l'utilité du projet, et éventuellement l'ampleur de l'étude à réaliser. Lorsque la réalisation d'une EIES s'impose, succède à cette phase du tri préliminaire celle du cadrage (ou scoping). Elle a pour objectif de déterminer les enjeux environnementaux les plus importants à traiter dans le cadre de l'étude, dans une optique d'efficacité et d'efficience. Elle s'achève par la rédaction de termes de référence qui sont soumis à la validation d'une autorité publique. Commence alors le processus proprement dit de réalisation de l'EIES dont l'achèvement se caractérise par la rédaction d'un rapport. C'est à cette phase que se réalise, entre autres activités, une analyse des impacts environnementaux que le projet sous étude peut avoir sur l'environnement. Cette analyse des impact consiste en un ensemble d'étapes formées par la définition des impacts appréhendés, la détermination de l'état futur du milieu, l'évaluation de la grandeur des impacts ainsi que de leur importance et de leur signification. Tout au long de sa rédaction jusqu'à sa validation, une place importante est faite à la participation du public conformément aux dispositions de l'arrêté n° 018/MERF fixant les 13 V. dans ce sens leur ouvrage : L'évaluation des impacts sur l'environnement : processus, acteurs et pratique pour un développement durable, Presses Internationales Polytechnique, 3è édition, Québec, Canada, 2010, 398p.
14
V.
dans ce sens leur ouvrage : L'évaluation des impacts environnementaux : un outil d'aide à la décision, Editions Multimondes, 2000, Québec, Canada, 403p. 16 modalités et les procé
dures
d'information et de participation du public au processus d'étude d'impact sur l'environnement au Togo. Ce rapport fait ensuite l'objet d'une prévalidation par un comité ad hoc d'experts, puis d'une validation dans le cadre d'un atelier national. Des observations sont faites par les membres évaluateurs du rapport de validation d'EIES produit par le consultant. En cas d'avis favorable du comité ad hoc de validation et après intégration de ses observations, le promoteur transmet le rapport à l'Agence Nationale de Gestion de l'Environnement (ANGE) en nombre d'exemplaires exigés par les textes, accompagné d'une demande de délivrance de certificat de conformité environnementale. L'ANGE effectue la vérification afin de s'assurer que toutes les observations ont été prises en compte. Elle émet ensuite son avis technique et prépare le certificat de conformité environnementale à la signature du Ministre en charge de l'environnement qui le délivre, autorisant ainsi le projet. Le certificat est accompagné d'un arrêté qui constitue le cahier de charge du promoteur durant les différentes phases du projet. On peut donc comprendre que plusieurs phases s'enchaînent dans le cadre de la réalisation d'une EIES et que l'exécution de chacune de ces phases implique la mobilisation d'une série d'outils.
17 Schéma général du processus d'ÉIE
Identification du projet Etude environnementale préalable ÉIE nécessaire Définition du champ de l'étude d'impact Pas d'ÉIE *Implication du public Atténuation et gestion des impacts
*C'est généralement à ces Nouvelle décision stades qu'intervient l'implication du public
.
Mais elle peut intervenir
à
n'importe quelle
autre
éta
pe
de
l'ÉIE
. Rapport d'ÉIE Modification *Implication du public Contrôle Décision Rejet Approbation
Les
informations sur
cette pro
cédure pe
servir pour améliorer les ÉIE futures Suivi et mise en oeuvre Source : Manuel de Formation
Sur
l
'
Etude d'
Impact
Environnemental, 2è édition, p.
190. Les outils déployés lors d'une étude d'impact environnemental et social
La littérature sur la thématique des outils ou méthodes déployés lors de la réalisation d'une étude d'impact sur l'environnement est fort abondante. L'approche la plus fréquente consiste à mettre en évidence des typologies. L'Agence Universitaire de la Francophonie regroupe les outils15 mis en oeuvre pour l'analyse d'impacts environnementaux et sociaux en huit (08) catégories. Il s'agit des listes de contrôles, matrices, réseaux, des systèmes d'information géographique, des modèles de superpositions, des modèles de simulation, des systèmes experts et des comités ad hoc. Tandis que les trois premiers outils ou techniques sont qualifiés d'usuels (listes de contrôle, matrices et réseaux), les autres (SIG, modèles de simulation, et systèmes experts) appellent à une technologie de pointe qui intègre une modélisation mathématique et des outils informatiques. Le comité ad hoc se révèle être une solution de dernier recours, pour pallier à l'insuffisance des outils existants pour analyser un phénomène essentiellement nouveau. D'autres auteurs essaient d'en dresser un inventaire plus ou moins exhaustif en précisant les différentes activités de réalisation des EIES plus importantes. Ainsi, L. W. Canter (1996) a identifié vingt-deux (22) outils, qui s'avèrent être d'une utilité particulière pour différentes phases. Le tableau ci-dessous en fait une description succincte (V. Tableau n°1). Pierre André, Claude E. Delisle et Jean-Pierre Revéret ont essayé une classification analogue (V. Tableau n°2). Ces tableaux permettent de remarquer que, pour la phase d'analyse des impacts, plusieurs outils peuvent être utilisés. Mais ils ne sont pas forcément utiles aussi bien pour la phase d'identification des impacts que pour celle de leur évaluation. Ainsi pour Canter (1996), la méthode des analogues, les listes de contrôles descriptives, les avis d'experts et systèmes experts, les essa en laboratoire et maquettes, les revues de littérature, les matrices, les études de suivi sur le terrain, les réseaux et l'évaluation des 15 La définition de chacun de ces huit catégories d'outils peut être consultée ici : http://web.cm.refer.org/eie/chapitre5_1.html, consulté le 27/11/2012. Une définition des 22 outils d'études des impacts sur l'environnement figure en Annexe n°1. 19 risques sont des outils indiqués pour réaliser l'activité d'identification des impacts sur l'environnement. Pour l'évaluation, il conseille de faire usage de la méthode des analogues, des listes de contrôles axées sur la décision, les avis d'experts, les systèmes experts, les indicateurs, l'évaluation du paysage, les revues de littérature, les inventaires, les matrices, la surveillance de base, les cartographies SIG et la méthode d'évaluation de risques. En tout état de cause, un consensus semble s'élever parmi les auteurs sur la pertinence des matrices pour l'analyse des impacts. A tout le moins, la pratique le démontre : selon les dires d'experts, 95% des EIES transmises à l'Unité de Gestion Environnementale et de Développement Durable de la Banque Ouest Africaine de Développement (BOAD) en tant qu'études préalables et obligatoires pour l'obtention de financement de la Banque font référence à la matrice de Léopold et à la Grille de Fecteau, respectivement pour l'identification et l'évaluation des impacts potentiels. Ces deux outils appartiennent à la famille des matrices et sont ceux que JAT Consulting déploie respectivement pour l'identification et l'évaluation des impacts potentiels. Tableau n°1 : synoptique des méthodes et phases d'activités d'une EIE
Types de méthodes d'EIE Analogues (sosies, études de cas) Listes de contrôle (simple, descriptif, etc.) listes de contrôle axé sur la décision L'analyse coût-bénéfice environnemental Avis d'expert Systèmes experts Les indices ou indicateurs Essais en laboratoire et maquettes Évaluation du paysage Revues de la littérature Calculs de bilan de masse (inventaires) Matrices Surveillance (de base) Les études de suivi sur le terrain (près de récepteurs) Réseaux Cartographie SIG Photos / montages Modélisation qualitative Modélisation quantitative L'évaluation des risques Construction de scénarios Extrapolation de tendances Définition des questions (cadrage) X X X Identification des impacts X Description des effets environnementaux X X X X X X X X X X Communication des résultats X X x X X x X X X X X X x X X X X X X X X X X X X x X X x x X X X Prévision des modifications X X X X X X X X X X x X x x X x x X x x x X x x X = potentiel d'utilisation directe de la méthode pour l'activité cotée
Source: L.W. Canter, Methods for Effective Environmental Information Assessment (EIA) Practice, in Environmental Methods Review: Retooling Impact Assessment for the New Century, Fargo, North Dakota, USA: The Press Club, March 1998, n°6, p.60. 21 Tableau n
°2
:
les
outils appropriés à chaque phase de l'EIE Phases de l'EIE Tri préliminaire Cadrage Réalisation de l'étude Description de l'environnement Détermination des impacts Prévision des modifications Evaluations des impacts Détermination des mesures d'atténuation Evaluations des mesures d'atténuation Elaboration de la surveillance et du suivi Décision Surveillance et suivi Méthodes Systèmes Listes Matrices Réseaux Superpositions Modèles d'aide à la SIG experts décision + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + + +
+ Source : Pierre André et al. op.cit., 1 + ère + + + + + + + + + + + + + + + + édition, p.248.
Il existe cependant peu de réflexions d'ordre épistémologique sur les présupposés méthodologiques et éthiques qui ont guidé la conception d'un outil donné. Certes, il existe dans des sciences voisines des évaluations environnementales, des essais scientifiques de la même espèce. Par exemple, Julien Milanesi a proposé une réflexion sur l'éthique de la méthode d'évaluation contingente dite méthode d'évaluation monétaire de la nature. Aussi, décrypte-t-il qu'à la base de cette technique dont l'inventeur lointain serait l'économiste Jeremy Bentham, se trouve un « projet utilitariste d'arithmétique des plaisirs et des peines ».16
16 Pour plus de détails, V. Julien Milanesi, « Éthique et évaluation monétaire de l'environnement : la nature est-elle soluble dans l'utilité? », VertigO - la revue électronique en sciences de l'environnement [Online], Volume 10 numéro 2 | septembre 2010, Online since 29 September 2010, connection on 30 October 2012. URL : http://vertigo.revues.org/10050 ; DOI : 10.4000 22 Sans rentrer dans les détails de cette analyse philosophique sur l'économie, nous voudrions adopter une démarche similaire. Ainsi notre étude se concentrera exclusivement sur la matrice de Léopold et la grille de Fecteau, pour « comprendre » ces dimensions, avant de participer à l'exercice de conception de nouveaux outils. Ce faisant, notre travail s'analyse en termes d'une évaluation épistémologique et éthique. Dans ce cas, vers quelle fin est-il orienté?
III- Justification de l'étude : une inspiration fondée sur l' « évaluation de la durabilité » A côté des recherches que L.W. Canter observe17, il existe d'autres efforts méthodologiques
qui
consistent
à
imaginer
des outils permettant de
faire
des
étud
es d'impact sur l'environnement de véritables
outil
s de développement durable. En effet, comme l'observe Sadler (1999), « l'évaluation de la durabilité » constitue la deuxième génération des évaluations environnementales. Il s'agit d'une autre perspective où l'on constate que les auteurs abordent les outils d'EIES dans leur fonction de contribution au développement durable. Pour Verheem (2002), le but de l'évaluation de la durabilité est de s'assurer que les plans et les activités « apportent une contribution optimale au développement durable ».18 Alors quel peut être l'intérêt d'évoquer ces outils, dans la mesure où ils ne sont pas déployés dans le cadre d'une EIES, mais servent plutôt à évaluer le potentiel de contribution de ces outils au développement durable? Selon Dimitri Devuyst (2009), cette 17 En effet, selon lui, les recherches en vue de la conception d'un outil susceptible de satisfaire à toutes les exigences scientifiques et politiques d'une EIE a été une pré occupation majeure depuis 1970. Dans cette perspective, l'International Association for Impact Assessment (IAIA), tient des sessions techniques annuelles en vue de développer des méthodes plus appropriées en matière d'étude d'impacts sur l'environnement. 18 V. dans ce sens Rob Verheem,
Recommendation
s
for Sustainability Assessment in the Netherlands. In Commission for EIA. Environmental Impact Assessment in the Netherlands. Views from the Commission for EIA in 2002. The Netherlands; 2002, cité par Jenny Pope, David Anna
ndale
& Angus Morrison-Saunders, Conceptualising sustainability assessment, Environmental Impact Assessment Review 24 (2004) 595–616, p.2. 23 évaluation de la durabilité serait un outil étroitement lié aux EIES et aux Evaluations Environnementales Stratégiques.19 Aussi Weaver et al (2008) et Cashmore et al. (2007) ont-ils identifié des contributions empiriques de plusieurs études d'impact sur l'environnement à la durabilité. Ces contributions consistent dans l'amélioration des connaissances techniques et scientifiques dans différentes disciplines, la conception de projets plus efficaces, une meilleure gouvernance par la détection de lacunes dans la législation et, enfin, l'évolution des valeurs et les attitudes en augmentant la sensibilisation du public.20 Dans le cas particulier du Portugal, Ana Cravo et Maria do Rosário Partidário 21 font remarquer que dans ce pays, il a été mis au point un mécanisme appelé Sustainability Assessment Framework (SAF) ou Cadre d'Evaluation de la Durabilité (en français). Celuici permet d'évaluer les meilleures études d'impact environnemental et social à l'aune de huit critères de durabilité définis par R. Gibson, S. Hassan, S. Holtz, J. Tansey et G. Whitelaw (2005). Il s'agit de l'intégrité du système socio-écologique, de la suffisance des moyens de subsistance et des chances, de l'équité intra-générationnelle, de l'équité intergénérationnelle, de l'entretien et de l'efficacité des ressources, de la civilité socioécologique et de la gouvernance démocratique, et de la précaution et l'adaptation. Ces deux auteures, 22 ont décidé de l'expérimenter sur trois études d'impact sur l'environnement en vue d'en évaluer la durabilité. Elles en viennent à la conclusion selon laquelle le meilleur moyen de parvenir à une plus grande contribution des EIES à la durabilité est d'essayer d'appliquer tous les critères définis par Gibson et al. en même temps. 19 Dimitri Devuyst, Introduction to sustainability assessment at the local level. In: Dimitri Devuyst, editor. How green is the city? Sustainability assessment and the management of urban environments. New York: Columbia University Press; 2001, p.9. 20 Pour plus de détails, V. dans ce sens Ana Cravo & Maria do Rosário Partidário, EIA contributions to sustainability – best practice in Portugal, p.2., disponible sur http://www.iaia.org/conferences/iaia11/uploadedpapers/final%20drafts/EIA%20Contributions%20to%20Su stainability_Best%20Practice%20in%20Portugal.pdf, consulté le 20/02/2013. 21 Ibid., p.2. 22 Ibid., p.5. 24 Toujours dans une perspective de durabilité, Djibo Boubacar, Marguerite Wotto, et JeanPhilippe Waaub, quant à eux, s'interrogent sur le point de savoir si « Les études d'impacts des projets routiers en Afrique prennent [] suffisamment en compte le développement durable? ».23 En effet, ils reconnaissent l'importance capitale que les projets de construction de route revêtent pour adresser les questions de pauvreté et pour promouvoir le développement. Sans nécessairement s'appuyer sur les critères de durabilité décrits par Gibson et al., ils observent plusieurs lacunes d'ordre méthodologique qui touchent pour une part à « l'identification et à l'évaluation des impacts ». Aussi, pensent-ils que pour assurer la durabilité des milieux biophysiques et humains, des « dispositions adéquates doivent être prises pour garantir un processus d'évaluation des impacts sur l'environnement pouvant contenir les effets pervers des projets d'infrastructures routières ».24 L'on peut se rendre compte que ces derniers auteurs recherchent, au sein même des études d'impact environnemental et social, des motifs légitimes pour intégrer le développement durable. Cette perspective inspire l'orientation de cette étude. Dans la présente étude, tout en nous inscrivant dans la logique du développement durable nous voudrions contribuer, à travers l'évaluation épistémologique et éthique et à nos recommandations, à inscrire les outils d'analyse des impacts déployés par JAT Consulting dans une perspective, non pas de développement durable, mais de développement humainement soutenable. Cette nuance d'ordre terminologique et conceptuel appelle des précisions. En effet, la définition la plus répandue du concept de développement durable est celle proposée par le rapport Brundtland en 1987. Selon celui-ci, il s'agit d' « Un développement économique qui permet de satisfaire les beso ins de la présente génération sans compromettre la capacité des générations futures à satisfaire les leurs. Deux concepts sont inhérents à cette notion : le concept de ''besoins'' et plus particulièrement des besoins 23 V. dans ce sens Djibo BOUBACAR, Marguerite WOTTO, et Jean-Philippe WAAUB, Les études d'impacts des projets routiers en Afrique prennent-elles suffisamment en compte le développement durable?, disponible sur http://www.sifee.org/Actes/actes_geneve_2007/ecole/3/Boubacar_Waaub.pdf, consultée le 12/02/2013. 24 Ibid., p.11. 25 essentiels des plus démunis à qui il convient d'accorder la plus grande priorité, et l'idée des limitations que l'état de nos techniques et notre organisation sociale imposent sur la capacité de l'environnement à répondre aux besoins actuels et à venir ». Il s'agit, dans les termes de Capron, de viser cet « objectif qui a pour enjeu de subvenir aux besoins de l'ensemble de l'humanité (rôle de l'économie), en préservant les conditions de reproduction de la nature (préoccupation écologique), dans des relations sociales d'équité permettant d'assurer la paix et la cohésion sociale (attentes sociales et sociétales). Ce qui se traduit également par la formule : oeuvrer à un monde vivable, sur une planète viable, avec une société équitable ».25 La paternité de l'idée d'un « développement humainement soutenable » revient à Jean-Luc Dubois.26 En effet, celui-ci observe que le concept classique du développement durable se réfère à un équilibre entre les piliers économique, social et environnemental et de ce fait à une conception de la société en tant qu'entité globale, qui peut ignorer l'être humain. Aussi, affirme-t-il que « Le développement peut être socialement durable en améliorant, au présent et sans compromettre le futur, les indicateurs sociaux et la qualité de la société, mais ne pas être humainement soutenable ».27 Son approche consiste donc à faire de la personne humaine le sujet du développement. En s'interrogeant sur sa place, il postule de l'existence d'une séquence phénoménologique aux termes de laquelle il convient d'observer que le social et le naturel n'existent que quand ils apparaissent positivement à la personne humaine. Le développement humainement soutenable devrait donc insister sur le respect de la personne dans sa relation socio- environnementale, car « si la personne subit des coûts au point d'être détruite, l'environnement ne sera pas respecté. Il existe une conditionnalité humaine à l'environnement. L'absence de prudence dans le développement
25 Michel Capron., « Le rôle des entreprises dans le développement durable :Approche historique », Journée d'études du Groupe initiatives, 9 septembre 2008, Nogent-sur-Marne, p. 2
26 Jean-Luc Dubois est Statisticien-économiste, diplômé de l'ENSAE (en 1973) et de l'Université Paris I. Il a été enquêteur sur les conditions de vie des ménages en Haïti, en Côte-d'Ivoire et au Brésil. Coordinateur de projets à la Banque mondiale (depuis 1987), il est chercheur au Centre d'économie et d'éthique pour l'environnement et le développement (en 2005). 27 V. 26 humain rend insupportable la sophistication du principe de précaution de l'environnement naturel ».28 Cette prise en compte de l'humain rejoint la perspective chrétienne. Ainsi dans sa lettre29 du 1er Janvier 1990 pour la célébration de la Journée Mondiale pour la Paix, Jean Paul II établit un lien fort entre « la gravité de la situation écologique [qui] révèle la profondeur de la crise morale de l'homme ». Par cette proposition, il souligne l'idéologie hédoniste qui anime l'être humain dans sa quête du développement. Aussi, invite-t-il à reconsidérer les modes de vie et de consommation en replaçant l'humain au centre de la création, conformément à l'intention première de son créateur : celui-ci, « après avoir créé le ciel et la mer, la terre et tout ce qu'elle contient, crée l'homme et la femme : [Il] vit tout ce qu'il avait fait: cela était très bon »30 (Gn l, 31). Or, cette oeuvre de création paraissait seulement bonne pour son Auteur avant qu'il ne fît l'être humain. En observant que « si le sens de la valeur de la personne et de la vie humaine fait défaut, on se désintéresse aussi d'autrui et de la terre »31, Jean Paul II postule non seulement qu'il est important de venir au secours de la nature, mais encore que cet empressement doit s'appuyer sur une considération hautement humaine. Aussi, c'est à l'humain que revient la responsabilité de prendre soin de la création et de continuer par son intelligence l'oeuvre de la création, pour son propre bonheur. Ainsi, il nous semble essentiel de conduire une analyse qui mette au centre l'humain et que celui-ci soit la mesure du vrai développement durable. Ce sera notre présupposé central. La problématique de recherche expose, ainsi qu il suit, les questions et objectifs de la présente étude. 28 Ibid. 29 V. dans ce sens, Jean Paul II, La paix avec Dieu créateur, la paix avec toute la création, Message pour la célébration de la journée mondiale de la paix, 1er janvier 1990, disponible sur file:///F:/Essai%20m%C3%A9thodologique/
Message
%20
pour%20
la
%20
XXIIIe%20Journ%C3%A9e%20mondi
ale
%20
de%20la%20Paix%20-
%20
Jean
-
Paul
%20II.htm,
consult
é le
07/02/2013.
30 V. dans ce sens La Sainte Bible, Genèse 1, chapitre 31. 31 V. dans ce sens Jean Paul II, op. cit., 27
IV. Problématique et hypothèse principale
Selon Michel Jurdant, « C'est au début de l'élaboration des projets [] que des alternatives doivent être proposées, avec, dans chaque cas, une analyse des contraintes écologiques et sociales à court, moyen et long terme. Ces analyses devraient comporter d'ailleurs autant de considérations d'ordre éthique et philosophique que d'ordre technique et scientifique ».32 Or, qui dit « éthique » dans une perspective de développement durable, dit « humain » puisque l'éthique du développement durable s'inscrit dans une perspective « anthropocentrée » selon laquelle l'Homme est le coeur de l'écosystème.33 Autant qu'il doit respect à la Nature qui l'entoure et d'où il tire l'essentiel des ressources qui satisfont ses besoins économiques, autant il doit considérer que celle-ci n'a pas de valeur intrinsèque qu'il faut valoriser de manière autonome. De la sorte, la prise en compte de l'humain dans l'analyse des contraintes écologiques et sociales des projets que se charge de réaliser une EIES, implique une analyse des aspects sociaux, économiques et culturels des projets. La raison est simplement que « Tout projet vient s'insérer dans l'ensemble vaste et complexe d'une société fortement industrialisée et il ne peut s'analyser sans références à ce contexte global, ni sans le relier à toutes les crises présentes dans ces sociétés ».34 De plus, il convient de remarquer que c'est dans la sphère économique (échange des biens et services) et sociale (relations entre humains) que se ressentent les impacts environnementaux des projets de développement. Comme l'observe le Programme des Nations Unies pour l'Environnement (PNUE), « Les hommes font partie
ante de l'environnement. L'activité humaine a des effets sur l'environnement et, à leur tour, ces effets se traduisent par des
impacts sociaux
».35
Cette remarque importante justifie de mobiliser la théorie du développement humainement soutenable de Jean-Luc Dubois. 32 Jurdant, cité par Pierre André, Claude E. Deslisle, Jean-Pierre Revéret, Abdoulaye Sene, L'évaluation des ère impacts sur l'environnement : processus, acteurs et pratique, Presses Internationales Polytechniques, 1 édition, 1999, Montréal, Québec, Canada, p.16. 33 Il convient de préciser ici qu'en éthique, la perspective anthropocentrée se démarque de la vision dans laquelle l'homme est l'élément supérieur de la nature, et qu'il la soumet impunément. 34 Jurdant, op. cit., p.16 35 V. dans ce sens le Manuel de Formation ÉIE, Deuxième édition 2002, p. 273. 28 Par ailleurs, Pierre André, Claude E. Delisle et Jean-Pierre Revéret, observent que toutes les études d'impact sur l'environnement se doivent d'évaluer également les impacts sociaux et économiques des projets. En effet, en tant qu'outil par excellence de la dimension environnementale du développement durable, il s'agit de dépasser ce cadre traditionnel des EIES pour qu'elles deviennent de véritables instruments de « durabilité des projets ». 36 Une problématique peut ainsi se développer autour de la question de savoir quelle place est faite à l'humain dans l'analyse des impacts que les activités de développement sont susceptibles d'avoir sur l'environnement. Les méthodes scientifiques et techniques déployées par les différents experts qui réalisent une EIES permettent-elles de valoriser le facteur humain? Ou restent-ils des outils qui analysent seulement les impacts sur l'environnement, dans sa forme strictement écologique? JAT Consulting déploie la matrice de Léopold pour l'identification des impacts potentiels, et la grille de Martin Fecteau pour l'évaluation de ceux-ci. De fait, on peut se demander si les EIES que réalise ce bureau d'études satisfont à ces exigences aussi bien éthiques que scientifiques que doit comporter une EIES qui intègre fortement le facteur humain. Cette question se justifie dans la mesure où le PNUE observe que dans le cadre d'une EIES, « les effets sociaux, les effets sur la santé ainsi que les autres effets qui ne sont pas de nature biophysique, ne sont pas ou sont insuffisamment traités ».37 La présente étude voudrait répondre à la question de recherche principale ainsi formulée : Comment contribuer à l'amélioration des méthodes d'évaluation des impacts environnementaux afin que soient mieux pris en compte les intérêts humains? Cette question se traite dans une perspective d'éthique économique et sociale. En effet, il s'agit d'« un nouveau champ intellectuel et pratique qui permet de décoder les discours tant des économistes que des acteurs sociaux et politiques, de comprendre les valeurs et les
36 Pierre André et al., L'évaluation des impacts sur l'environnement : processus, acteurs et pratique, Presses Internationales Polytechniques, 3è édition, 2007, Montréal, Québec, Canada, p.33. 37 V. dans ce sens le Manuel de formation du PNUE, p.258. Ce choix se justifie par le besoin d'expliciter les systèmes de valeurs qui président à la construction des outils déployés par JAT Consulting, avant de proposer quelques éléments susceptibles de les enrichir. Il s'agit ainsi de réfléchir sur les outils de JAT Consulting, avant de tenter de suggérer des éléments d'amélioration. Pour cette raison, la question de recherche principale peut se décliner en ces deux questions spécifiques corrélatives : Quelle est la place de l'éthique et de l'humain dans la matrice de Léopold et la grille de Fecteau que JAT Consulting déploie respectivement pour l'identification et l'évaluation des impacts potentiels? Comment proposer des éléments issus de l'analyse éthique afin d'enrichir les outils de JAT Consulting? Dans le but de guider la présente recherche, nous partons de l'hypothèse principale que les intérêts humains seraient mieux pris en compte au sein même de la matrice de Léopold et de la grille de Fecteau pour autant que leurs éthiques sous-jacentes sont anthropocentrées. Cela laisse sous-entendre que, dans une certaine mesure, la place faible39 de l'humain au sein de ces outils est liée aux logiques écolo-centrées qu'elles préfigurent. V. Objectifs et intérêt de l'étude
: L'objectif de cette étude est de contribuer à l'amélioration des outils d'analyse des impacts potentiels de JAT Consulting, par une intégration de l'approche d'éthique appliquée, en procédant en deux étapes : D'abord, décrypter les référents sous-jacents aux outils techniques que sont la matrice de Léopold et la grille de Fecteau, à travers un décodage éthique ; 38 V. dans ce sens Jean Claude Lavigne, Cours d'éthique économique et sociale, Master Ethique et Gouvernance, Ecole des Sciences Morales et Politiques d'Afrique de l'Ouest, 2010-2011, p.1 et 3. 39 Bien que l'emploi de cet adjectif peut donner lieu à s'interroger épistémologiquement sur ce qu'il convient d'appeler « faible », il faut ici mentionner qu'il réfère davantage au constat du PNUE selon lequel « les effets autres que biophysiques sont insuffisamment traités ». V. supra p.20. 30 Ensuite, proposer des éléments issus de l'analyse éthique afin d'enrichir les outils de JAT Consulting
Cette étude se retrouve ainsi au confluent de trois intérêts scientifique, technique et personnel, qui se caractérisent par une relation de proximité qu'ils entretiennent entre eux. Au plan scientifique, disposer d'un outil technique remplissant les deux fonctions d'utilité d'une EIES, à savoir la prise en compte des dimensions éthiques et la durabilité des projets, permet de « révolutionner » - de manière modeste, certes- la pratique des études d'impacts sur l'environnement, à travers un changement de paradigme. En effet, Thomas Kuhn40 soutient, dans son oeuvre Structure des révolutions scientifiques, que l'histoire des sciences n'est pas un processus linéaire et continu : elle est, au contraire, un véritable phénomène social dynamique dont le cours s'effectue selon deux phases. D'abord, la « science normale », qui correspond à une période historique dans une discipline donnée, où les chercheurs s'efforcent de tester et de confirmer autant que possible le paradigme existant, c'est-à-dire la base de travail conventionnellement reconnue. Dans cette recherche de normalisation de la « science normale », surgissent un certain nombre d' « anomalies » que le paradigme reconnu ne parvient pas à résoudre. Cette situation s'explique par le fait que cette base de travail est insuffisante pour appréhender les subtilités que présentent les nouveaux objets de recherche. Ensuite, succède à la première phase, celle de la science extraordinaire : elle provient de l'introduction d'une part d'extra-rationalité dans le modèle de pensée classique. Cette introduction d'innovation dans l'approche scientifique traditionnelle provoque ainsi un changement de paradigme dans la manière d'appréhender base de travail. Ce mouvement fait régulièrement intervenir des éléments non rationnels et des mécaniques de domination, de rejet, de préjugés, sous l'influence de tension psychologiques, politiques et historiques divers. Les adhérents « rescapés » du paradigme antérieur perdent néanmoins plus ou moins rapidement leur autorité scientifique, tandis que les partisans du nouveau paradigme qualifient, selon Kuhn, la révolution en cours de « progrès ».
| 29,193
|
26/dumas.ccsd.cnrs.fr-dumas-01978393-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 11,034
| 16,174
|
Master MEEF Mention 2nd
degré- par
cours FSTG 2ème
année Différencier
pour la
réussite de tous Présenté par : M. Thomas BAUDIN Encadré par : M. Cédric SARRE
École Supérieure du Professorat et de l'Éducation de l'académie de Paris 10 rue Molitor, 75016 PARIS – tél. 01 40 50 25 92 – fax. 01 42 88 79 74. SOMMAIRE INTRODUCTION2 PREMIERE PARTIE : QU'EST-CE QUE LA DIFFÉRENCIATION?4
1) Premières définitions :4 2) Différenciation et binarité :6 3) De l'importance de la mise en scène :8
DEUXIEME PARTIE : ROOM 30112 1)
Présentations
générales :12 2) Les profils :13 3) Stratégies et expérimentations :15 TROISIEME PARTIE : DES RESULTATS DIFFERENTS23 1) Une question de participation :23 2) Une progression dans le temps :26 3) Bilans contrastés :28 ANNEXES33 BIBLIOGRAPHIE37 1) OUVRAGES:37 2) ARTICLES :37 3) AUTRES RESSOURCES :38
INTRODUCTION Beaucoup d'aspirants au métier de professeur pensent que le plus difficile est de passer les concours. Si ces dits concours ne sont vraisemblablement pas une sinécure, ce qui se passe une fois que l'on bascule de « l'autre côté » est d'une toute autre catégorie. Finalement admis lors de la session de recrutement de 2017, je me retrouvai catapulté stagiaire dans l'académie de Paris avec, en soi, véritablement peu d'expérience d'enseignement (je ne détaillerai évidemment pas mon curriculum vitae de façon exhaustive). Par un processus qui me dépasse encore complètement aujourd'hui, je fus – et je le suis encore – affecté au collège Pierre de Ronsard dans le 17ème arrondissement de Paris. Le collège Ronsard, situé 140 avenue de Wagram, est, en toute honnêteté, un établissement dans lequel il fait bon vivre. L'établissement accueille un peu plus de 700 élèves répartis sur 4 ou 5 classes par niveau ; il ne compte pas de classe à profil spécifique de type SEGPA, mais offre la chance aux élèves d'évoluer en classe bi-langues ou en section européennes malgré quelques changements à venir (passage au format LCE). Ronsard ne se cantonne pas qu 'à la langue française puisque l'établissement complète ses enseignements de langues vivantes anglais, allemand, espagnol et russe par un enseignement du latin. Il se dit d'ailleurs que l'on souhaiterait faire de Ronsard un pôle langue important, étant donné les résultats probants des anciens collégiens qui y ont été formés. C'est, somme toute, un établissement presque idéal (si de tels établissements existent bien) qui présente beaucoup d'atouts essentiels au bon développement ainsi qu'à la bonne réussite des élèves. On notera notamment que beaucoup de choses sont mises en place dans l'extra-scolaire – une association sportive qui permet, par exemple, aux élèves de pratiquer un sport de leur choix en dehors des heures de cours au collège, une braderie annuelle, plusieurs sorties (d'intégration ou en lien direct avec un travail effectué en classe) et des voyages linguistiques et culturels divers. Par ailleurs, il faut souligner que ces atouts ne se limitent pas à ce qui se passe en dehors du collège. Les salles de classe sont, à ma connaissance, toutes équipées d'un ordinateur, d'un tableau numérique et de haut-parleurs. Chaque professeur peut également avoir accès à une salle dite « axe libre », autrement dit « salle info », permettant ainsi l'incorporation des TICE dans l'enseignement. La salle des professeurs dispose de plusieurs postes et de plusieurs photocopieurs – les conditions matérielles sont donc relativement bonnes pour l'enseignant. Enfin, le collège comporte également un centre de documentation et d'information, ouvert à heures fixes toute la semaine. Il propose une sélection d'ouvrages et de revues adaptées aux élèves et aux enseignements qu'ils reçoivent. Récemment d'ailleurs, le département d'anglais a souscrit à un abonnement à la revue « I love English ». En outre, il propose aussi quelques ordinateurs, offrant un accès au numérique aux élèves. La rentrée à Ronsard ne fut pas simplement une première pour moi (et pour d'autres collègues arrivants) mais aussi pour le principal Mr. Rubio. La direction du collège a changé au cours des dernières années (notamment avec l'arrivée de Mme Chiche au poste de principale adjointe), et il apparaît important de souligner que Mr. Rubio et Mme. Chiche font également partie des atouts dont dispos le collège : les phases de transitions qui peuvent parfois s'avérer problématiques avancent ici de façon assez fluide, et la direction montre tant sur son implication que sur sa fermeté qu'elle est là, avant toute chose, pour le bien de l'élève. « Oui, c'est un peu enfoncer des portes ouvertes » pourrait-on me dire, mais ces choses-là ne tombent pas toujours sous le sens. Quoiqu'il en soit, c'est bien cette rentrée et la réunion du jour de rentrée que je prends comme point de départ de ce qui sera ma réflexion tout au long de cet écrit, et très certainement tout au long de ma carrière (si les astres sont bien alignés au moment des échéances diverses). Car en effet, je fus interpellé par les premiers mots du nouveau principal sur la gestion du collège et les 2 changements en cours, et plus particulièrement par le terme de « sectorisation » qui retint toute mon attention. La sectorisation, de façon concise, fait référence à la répartition des élèves venant de primaire dans les collèges ; une répartition basée sur une cartographie de la ville de Paris. D'ordinaire, la sectorisation n'est pas véritablement un processus compliqué : les élèves des écoles primaires d'une zone intègrent le collège de proximité. Mais l'académie et le rectorat de Paris ont décidé, par souci de mixité, de changer ces zones dites de sectorisation pour tenter d'effacer les clivages et les différences de niveaux du mieux possible. Ainsi fait, un élève habitant un certain côté de l'avenue de Villiers et qui aurait logiquement dû intégrer le collège Ronsard pourra se retrouver affecté à un autre établissement. De la même manière, un élève habitant au-delà de la Porte Champerret pourra intégrer le collège Ronsard (tout ceci reste approximatif, ma connaissance des nouvelles cartes de secteurs étant limitée). Si la mesure est motivée par un désir de mixité, elle implique évidemment un certain changement dans les classes : un collège comme Ronsard, statistiquement connu pour former de très bon futurs lycéens, accueille désormais des élèves dont le niveau est sensiblement plus fragile. Très vite, il apparaît qu'un certain nombre d'élèves ne maîtrise que peu, voire pas du tout, ce que l'on considère comme relevant des apprentissages fondamentaux – la lecture, et l'écriture. Certains élèves présentent des troubles orthographiques évidents, d'autres éprouvent plus de difficulté quant à la calligraphie et la formation des lettres, et d autres encore sont incapables de lire un court texte sans se heurter au déchiffrage ou au sens d'un mot. Ainsi, les classes qui présentaient auparavant une hétérogénéité « normale », affichent désormais pour certaines des écarts de niveau impressionnants qui donnent du fil à retordre aux différents professeurs. À mon arrivée en classe début Septembre, je fus immédiatement troublé par ces différences incontestables qui résident entre deux, trois, ou plus d'élèves. En tant que stagiaire et débutant, il me paraissait, et même maintenant à l'heure où je rédige ces quelques lignes, il me paraît toujours très difficile de mettre en pratique un enseignement qui ne laisse personne de côté. Peu de temps après la rentrée et mes premier constats, je m'empressai de demander l'avis de collègues plus expérimentés que moi, pour me rendre compte que même des enseignants en pratique depuis des années se trouvent parfois bloqués face à certaines situations. Le choix de mon sujet de travail était donc tout naturel – il me semblait plus qu'important de pouvoir essayer d'apporter des éléments de réponses aux différentes questions que je pouvais me poser, ainsi que d'essayer de développer ma propre approche sur le bon fonctionnement et l'efficacité de mon enseignement. J'avais, dès le mois d'octobre, noté deux grandes interrogations dans mon carnet de bord : comment optimiser ma pratique d'enseignement pour qu'elle tende à réduire les écarts de niveau? Et surtout, comment faire en sorte de ne pas laisser les plus démunis de côté? La différenciation me fut conseillée par plusieurs collègues plus ou moins expérimentés – chacune de mes conversations avec un ou une collègue semblait déboucher sur au moins une pratique différenciée mise en place dans la classe pour palier à une difficulté ponctuelle ou non. Mais force est bien de constater que bon nombre d'enseignants ne savent que très peu de choses sur la différenciation, ou pédagogie différenciée. Quoiqu'il en soit, en me penchant un peu plus sur le sujet, je remarquai qu'il s'agissait avant tout d'une tentative d'aide théorique pour que les enseignants puissent faire évoluer leur pratique face à un public en évolution constante, ce qui, somme toute, semblait être exactement ce dont j'avais besoin. Avant de parler plus précisément de ma propre pratique en classe, il convient de discuter ce concept de différenciation plus en détails. Je vais donc m'employer, dans une première partie, à dresser un cadre théorique du terme à partir de mes lectures et de mes recherches. Je mettrai ensuite ce cadre en rapport avec mon expérience personnelle en classe, en définissant plus précisément mes attentes. Dans un second temps, j'en viendrai à présenter mes pratiques en classe ainsi que leur évolution après recherches – j'exposerai notamment les expérimentations que j'ai mise en place en classe. Enfin, je mettrai mes brèves recherches et expériences en regard dans une troisième partie, qui me permettra, je l'espère, de dresser quelques conclusions, au moins partielles. 3 PREMIERE PARTIE : QU'EST-CE QUE LA DIFFÉRENCIATION?
1) Premières définitions : Après quelques jours passés en classe, il est très vite devenu clair que j'allais, en plus du reste, devoir apprendre à adapter mes cours pour que tous les élèves puissent être actifs et progresser. Logique, me direz-vous, mais c'est ce premier constat qui m'a immédiatement aiguillé vers le sujet de cette étude – la différenciation. Avant d'entrer dans la moindre lecture théorique, j'ai décidé d'en discuter très rapidement avec plusieurs enseignants de matières diverses et à l'expérience variable (tuteur terrain, collègues de langues, de mathématiques et de français, collègues néo-titulaires). Le constat général est que, pour une grande majorité, les collègues avec qui j'ai pu discuter ne connaissaient ni les termes de « pédagogie différenciée », ni celui de « différenciation ». Bien difficile pour eux d'en donner une définition précise, et pourtant, aux questions concernant l'adaptation de leurs pratiques en classe, chacun d'entre eux a su répondre et proposer des pistes de réflexion intéressantes. Ainsi, très logiquement, c'est par là qu'il faut commencer; prenons donc un instant pour définir la différenciation, selon des sources plus théoriques. À plusieurs reprises, et notamment dans les articles issus du Conseil National d'Évaluation du Système Scolaire, le nom de Louis Legrand semble revenir avec plus ou moins de pertinence. En effet, dans Les différenciations de la pédagogie, paru en 1995, Legrand écrit : Différencier l'enseignement peut avoir deux sens complémentaires. Il s'agit, dans tous les cas, de prendre en compte la réalité individuelle de l'élève. Mais cette prise en compte peut se faire en considération de deux objectifs différents : ou bien il s'agit d'adapter l'enseignement à la destination sociale et professionnelle des élèves ; ou bien, un objectif commun étant défini et affiché, il convient de prendre en compte la diversité individuelle pour y conduire. (p. 6) Il y a plusieurs éléments intéressants soulignés par Legrand qui doivent attirer notre attention. Différencier l'apprentissage nécessite en premier lieu de connaître sa classe – l'enseignant doit avoir jaugé et analysé les points forts et les faiblesses du groupe. Et bien sûr, il ne peut faire cela qu'en connaissant les apprenants qui constituent le groupe ; il faut donc mêler une bonne connaissance des capacités de ses élèves en tant qu'apprenant individuel mais aussi en relation au groupe classe. En outre donc, il s'agit de réfléchir à comment adapter son enseignement pour que chaque élève, avec les acquis, le capacités et les faiblesses qui lui sont propres, puisse progresser. Cette progression d'ailleurs, doit avoir un point focal qui est le même pour tout le monde. Selon Legrand, l'objectif à atteindre, ce que l'approche actionnelle appelle par la même tâche finale, doit être définie et posée en amont comme le but à viser pour le groupe. Il s'agira ensuite de 4 mettre en place différentes stratégies adaptées et adaptables au bon développement de chaque élève pour que tous puissent réaliser la tâche finale. Legrand avance aussi l'idée que si l'on ne choisit pas de définir un objectif ou une tâche finale, l'apprentissage différencié peut se moduler par rapport à la « destination sociale » ou « professionnelle » des apprenants ou des élèves. En soi donc, une relation entre pédagogie différenciée et sphère sociale semble tissée d'emblée. Ce que Louis Legrand pose dans les années 90 est repris avec peut-être un peu plus de précision par Przesmycki Halina dans son ouvrage, La Pédagogie Différenciée, paru près de dix ans plus tard : La pédagogie différenciée est une pédagogie des processus : elle met en oeuvre un cadre souple où les apprentissages sont suffisamment explicités et diversifiés pour que les élèves puissent travailler selon leurs propres itinéraires d'appropriation tout en restant dans une démarche collective d'enseignement des savoirs et savoir-faire communs exigés. Halina comme Legrand reprend l'importance d'une relation étroite l'individuel et le collectif, et souligne également la nécessité de poser, au sein du cours, un "cadre souple". Cette possibilité de modulation sous-entend que le professeur doit faire preuve d une capacité d'adaptation importante. Si un travail de différenciation vise à singulariser le travail en classe des élèves en les guidant vers "leurs propres itinéraires", cela implique une charge de travail en amont plus conséquente pour l'enseignant qui doit envisager les différentes modalités relatives aux activités qu'il aura à mettre en place en classe. C'est à ce titre qu'Halina souligne l'importance de rendre les apprentissages "suffisamment explicites et diversifiés" : l'enseignant doit savoir et pouvoir expliquer clairement, ou faire verbaliser ou conscientiser les activités et les objectifs aux élèves pour faciliter l'accès au sens. De cette manière, la compréhension n'est plus simplement liée à un effet de déduction, mais bien à un processus cognitif qui mêle induction et déduction, donnant ainsi en théorie plus de matière de réflexion à l'élève. Ceci étant dit, l'enseignant se doit aussi de varier ses activités, non plus seulement dans un souci d'attraction et d'adhésion de la part des élèves, mais dans une réflexion plus méthodologique, qui pourrait associer un exercice à une forme de réflexion. Varier les activités équivaudrait donc à donner plusieurs outils aux élèves. Cependant, ce qui mérite d'attirer notre attention dans la citation d'Halina repose majoritairement dans les termes "propres itinéraires". La différenciation, au delà de donner des accès aux sens relatifs aux capacités de chacun, introduit tout autant une réflexion sur l'autonomie. D'une certaine manière, différencier sa pédagogie tend aussi à développer l'élève en tant qu'individu construisant ses compétences pour participer à un effort commun et surmonter une difficulté. Il s'agit de différencier les "savoirs" et les "savoir-faires" : on définira par "savoir" une connaissance théorique acquise, et par "savoir-faire" une capacité à mettre en oeuvre un ou plusieurs savoirs. La pédagogie différenciée relèverait donc presque aussi d'une forme de méthodologie de l'auto-apprentissage où les stratégies et les moyens mis en place par l'enseignant viseraient à aider à apprendre à s'apprendre. En soi donc, il s'agit également de se re-centrer sur l'élève en le (re)mettant en position d'acteur de son propre apprentissage au sein de la classe.
5 2) Différenciation et binarité : La première occurrence remarqu
d'un principe de pédagogie différenciée remonte au début du XXème siècle aux États-Unis. Entre 1905 et 1917 (les sources ne s'accordant pas toujours), une certaine Helen Parkhurst propose une approche différente de l'enseignement qu'elle met en place dans une école de Dalton, Massachusetts. L'innovation de l'approche Dalton, ou Plan Dalton, réside dans l'individualisation du travail - la classe dans sa forme connue disparaît, et se voit remplacée par des fiches de travail individuelles, permettant ainsi à l'enseignant d'individualiser son travail avec l'élève. Très vite, une telle approche montre avantages comme inconvénients : une mobilisation et une indépendance accrue pour les élèves, mais un rythme problématique qui tend à ne plus tenir compte que de l'efficacité de progression vers la complétion d'un programme, plutôt que son acquisition par les élèves; sans compter la perte d'une dynamique de groupe. Historiquement donc, l'équilibre entre individu et groupe classe se définit comme le souci principal de l'approche différenciée; la théorie comme la mise en pratique nécessitant par ailleurs une définition plus précise des enjeux et des problèmes inhérents. C'est ce que Philippe Meirieu s'emploie à faire dans son article intitulé "La Pédagogie Différenciée, enfermement ou ouverture?". Partant des premières constatations liées au Plan Dalton, Meirieu examine l'historique de la pédagogie différenciée en s'efforçant de souligner que chaque approche menée pouvait s'avérer pertinente mais seulement dans une certaine mesure. Il prend notamment l'exemple de Célestin Freinet qui différencie "apprendre" et "savoir", et qui met ainsi en place un système reposant sur la nécessité - quelque chose qui donne du sens au savoir, dont les élèves ont besoin, et pour laquelle ils doivent mettre en place des stratégies uniques et basées sur les acquis de chacun au sein du groupe classe afin de remplir le contrat de la nécessité (Meirieu, p.6-7). Ce travail, que Meirieu remarque comme étant "extrêmement original" (p. 5) et intéressant, lui permet ensuite de caractériser deux grandes écoles de pensée, deux grandes théories concernant la pédagogie différenciée : le principe que j'appellerai du "diagnostic a priori" et celui que je nommerai de "l'inventivité régulée". Certes, dans les deux cas, il y a bien prise d'informations et propositions différenciées à partir de ces informations. Mais, alors que dans le cas du diagnostic a priori, l'information est considérée comme contenant en germe, en quelque sorte, la remédiation, dans le cas de l'inventivité régulée, l'information est un indicateur parmi d'autres qui permet simplement de faire des proposition
d'observer
leurs
effet
s
. (p.
8) Se distinguent ici deux façons de travailler lorsque l'enseignant différencie son apprentissage. Ce que Meirieu appelle "diagnostic a priori" repose sur une phase de diagnostic menée en amont et durant laquelle l'enseignant va déterminer les points forts et les points faibles de chacun. Une telle approche nécessite donc une grande connaissance de la classe, tant sur le plan individuel que sur celui du groupe. L'inventivité régulée, cependant, ne repose pas sur un constat mené en amont : il s'agit de proposer des travaux différents et différenciés aux élèves, ce qui servirait de base d'observation et d'adaptation. L'enseignant pourrait alors mettre en place plusieurs stratégies comme le regroupement par niveaux ou la remédiation. Ceci étant dit, cette approche nécessite une connaissance un peu plus spéculative de la classe, puisqu'elle propose une différenciation dès le 6 début. On pourrait imaginer qu'un enseignant puisse avoir plus naturellement recours à l'inventivité régulée sur des élèves qu'il aurait déjà eu par le passé. Ces approches plurielles d'un même procédé tendent à montrer qu'une définition claire des tenants et des aboutissants de la différenciation reste encore mesurée. Meirieu poursuit sa réflexion sur une mise en place efficace à tous niveaux et note qu'une pédagogie dite "des causes" pose problème : "[elle] croit toujours que l'activité déployée par le maître est la cause du développement et des apprentissages de l'élève" (p. 13). Pour Meirieu, il est impossible de prévoir mécaniquement ce qui pourrait ou ne pourrait pas fonctionner avec un élève et déclencher un processus d'apprentissage efficace. En cela, il propose donc d'orienter la réflexion sur ce qu'il appelle une "pédagogie des conditions" qui ne se préoccupe pas de "déclencher ses apprentissages de manière mécanique" (p. 14) mais qui semble pourtant bien plus bénéfique aussi bien pour l'enseignant que pour l'élève : [Elle] me permet de retrouver mon pouvoir sur les conditions qui permettent [à l'autre] de se révéler et d'oser sa propre liberté, sa libre différence. Elle s'efforce de créer des espaces et de fournir des outils, d'enrichir l'environnement et de favoriser l'expression; elle est attentive à faire de la classe un lieu de sécurité, sans une pression évaluative permanente, sans moquerie en cas de tâtonnement ou d'échec, pour que l'on puisse risquer d'y apprendre à faire ce qu' ne sait pas encore faire, et précisément en le faisant. Elle mesure aussi la nécessité du regard positif, qui n'enferme pas, ne fige pas mais encourage l'imprévisible et s'émerveille devant lui. Elle sait, enfin, l'impérieuse nécessité d'inventer toujours des moyens nouveaux, en prospectant dans sa mémoire et en faisant appel à son imagination pour que chacun, avec sa différence puisse trouver progressivement par lui-même ce qui lui permet de grandir (p. 14) La pédagogie des conditions que présente Meirieu pose beaucoup de critères intéressants à aborder. En premier lieu, et en toute logique, Meirieu insiste sur l'importance de créer un lieu propice à l'apprentissage. L'enseignant doit faire en sorte que sa classe ne soit plus seulement le lieu du développement des compétences et capacités, mais aussi un lieu où l'on favorise l'expression, un lieu sûr susceptible de favoriser l'enrichissement personnel. Il convient donc de mettre en place une ambiance sereine de travail, où sont encouragés le soutien et l'entraide, la tentative et l'intercorrection, et où la moquerie et la parole négative n'ont pas leur place. Qui plus est, Meirieu laisse entendre qu'il faudrait se débarrasser de "la pression évaluative permanente" pour contribuer à cette ambiance sereine et propice à l'apprentissage. Il insiste d'ailleurs sur l'importance du "regard positif" et de l'attitude d'émerveillement que l'enseignant devrait adopter - la classe deviendrait ainsi un véritable lieu d'ouverture, ce qui aurait pour conséquence de laisser s'épanouir les élèves. En filigrane donc se dresse une relation certaine entre apprentissage et bienveillance. Enfin, dans sa définition de la pédagogie des conditions, Philippe Meirieu souligne l'importance de l'adaptabilité du professeur. Déjà mentionnée plus haut, l'adaptabilité et les ressources de l'enseignant sont bien évidemment un atout et un outil primordial. Mais Meirieu lui accorde une place beaucoup plus centrale : pour une pédagogie des conditions effective, l'enseignant doit trouver des points d'appui et profiter de l'imprévu pour encourager l'initiative personnelle, il doit utiliser son expérience passé et son imagination pour de mettre en scène l'apprentissage; mettre l'élève en scène pour qu'il soit à la fois stimulé et convaincu de la nécessité fondée de l'apprentissage durant une situation X ou Y. En soi , c'est grâce à ce qui est mis en 7 place par l'enseignant qu'une pédagogie peut à la fois être différenciée et faire la différence. Tous ces facteurs posent d'ailleurs un cadre d'éléments primordiaux à associer à la différenciations - il s'agit là de moyens, de mises en oeuvre et de stratégies auxquels l'enseignant peut avoir recours. 3) De l'importance de la mise en scène : En suivant les définitions et les critères de réflexions donnés par Philippe Meirieu, il apparaît clair que la différenciation repose sur tout un panel d'outils à dispositions de l'enseignant pour souligner et rattacher l'individualité de chacun au groupe classe. Dans un article paru dans Les Cahiers Pédagogiques en 1989, André De Perretti réfléchit aux implications pour l'élève d'un apprentissage différencié qui selon lui "a placé dans une division régressive les rôles d'enseignants et d'élèves, ramenés et réduits à leur bi-polarité constitutive." Il dégage ainsi un problème de motivation et de stimulation nécessaire au bon apprentissage, rejoignant ce que Meirieu définit dans l'ambiance de travail apaisée et requise pour la progression de l'enseignant et des élèves. "Comment utiliser la diversification des rôles dans la classe comme facteur de motivation et de diversification?" sert donc de réflexion à De Perretti quant à la question de l'atmosphère en classe et de la stimulation des élèves, et celui-ci précise notamment qu'une "indistinction inerte est maintenue entre [les élèves] dans le déroulement de leurs apprentissages" en classe. En d'autres termes, l'individualité des élèves doit être suffisamment prise en compte pour avancer sereinement. Il poursuit d'ailleurs : Il s'ensuit que la motivation des "apprenants" n'est pas obtenue et soutenue par une émulation et une solidarité organisées, mais qu'elle est confiée à des hasard et un élitisme caché : les élèves sont placés en situation d'apprendre en solitude et contre les autres au lieu d'acquérir solidairement et contractuellement des connaissances avec et par les autres ainsi que pour les autres. (p. 1) Un danger souligné par De Perretti dès 1989 réside donc dans une instabilité entre le rapport individu/classe. Trop de différenciation, ou d'individualisation de l'apprentissage peut parfois tendre à créer des situations conflictuelles, ou tout du moins nuire à la solidarité du groupe. La situation d'apprentissage qui devrait être e par l'attention portée à l'élève pourrait donc prendre un effet inverse si l'enseignant ne prend pas suffisamment de précautions, la plupart d'entre elles abordées précédemment avec Meirieu. Cela dit, André De Perretti se concentre majoritairement sur un point important du travail de l'enseignant et celui de la classe : Travailler "autrement", ce peut être, en particulier, confier à des élèves, pour des durées déterminées et avec renouvellement des titulaires de rôles, volontaires, désignés, ou élus selon les cas, des responsabilités correspondant aux spécificités des contenus [] le responsable d'un rôle devra non pas l'assumer seul, mais plutôt réguler les diverses actions et opérations prises en charge par divers acteurs concernés et qui sont de nature à effectuer de manière convenable cette mise en oeuvre (p. 1) La réflexion de De Perretti se centre sur l'importance des rôles dans la classe. Selon lui, le travail en classe peut se trouver amélioré ou pourrait-on dire "reboosté" par une distribution cadrée de rôles distincts au sein du groupe. Attribuer des rôles d'une façon ou d'une autre pourrait donc susciter une forme d'effervescence et dynamiser le groupe classe, mais aussi souligner l'individualité et les 8 capacités uniques des élèves. De cette façon donc, l'enseignant ne se tiendrait plus frontalement face au groupe classe, mais interagirait avec eux, à la manière d'un "chef d'orchestre" selon les termes de De Perretti. Il s'agirait donc de susciter une ambiance de groupe dynamique par une forme d'individualisation positive de chacun - l'enseignant peut donc différencier sa pédagogie sans nécessairement "toucher" au contenu de son cours. De façon similaire, la classe, dans son sens le plus littéral et physique, peut également être modifiée pour parvenir à des fins de différenciation. Dans un ouvrage très intéressant intitulé Travailler en îlots bonifiés: pour une meilleur réussite de tous, Marie Rivoire décrit les tenants et les aboutissants d'un nouveau mode de fonctionnement de classe qu'elle a pu mettre en place au fil des années. Le travail en groupe, et plus particulièrement en îlots, paraît être une pratique de plus en plus répandue. Il est assez facile de considérer qu'elle pourrait permettre de créer ou de re-créer de nouvelles dynamiques dans la classe grâce aux groupes et sous-groupes. Pour cela, Rivoire ne se contente pas simplement de bouger les tables et répartir ses élèves; elle met en place un système inédit de vingt points - système qu'il serait bien compliqué de réduire et résumer quelques lignes ici. Ceci étant dit, le tableau qu'elle en dresse est intéressant : Le système ainsi élaboré me semblait pouvoir marcher. Il était attractif grâce à ses points bonus gagnés à chaque heure, au gré des activités proposées par le professeur [] Il donnait ainsi à l'élève le sentiment d'être récompensé immédiatement pour ses efforts, quand bien même ils étaient collectifs. Il devait aussi permettre une entraide significative pour les élèves en difficulté, ceux-ci trouvant un appui auprès de leurs camarades. Il devait également réduire de façon conséquente le brouhaha causé par le travail de groupe grâce aux marques rouges pénalisantes [] Le travail ainsi établi conduirait à coup sûr à des progrès en anglais, mais les élèves apprendraient aussi beaucoup d'autres choses : gérer le travail de groupe, gérer la discipline au sein du groupe, apprendre à écouter et à tenir compte de l'autre [] aider l'élève le plus faible [] mettre en commun pour parfaire le travail de groupe (p. 15) Ce que Rivoire met en place avec un tel travail en îlots n'est pas qu'une simple modification physique de la constitution de la classe - il s'agit tout d'abord de développer les capacités des élèves en langue vivante, en les mettant en quelque sorte en situation d'expression dans un contexte différent de celui de la classe dite "classique", mais il s'agit aussi de développer des compétences plus transversales. Tout cela montre une préoccupation plus vaste dans cette forme de pédagogie différenciée : aider les élèves les plus fragiles, naturellement, mais harmoniser la classe en s'appuyant sur des élèves dits "moteurs" et en mettant en avant les capacités de chacun au sein de des sous-groupes. En soi donc, il s'agit de développer l'individu par son apport et ses rapports au collectif. Ce que nous avons pu voir grâce à De Perretti et Rivoire ne sont véritablement que deux exemples plus ou moins précis d'apprentissages différenciés sur certains points. Ces différences, cela dit, ne relèvent véritablement que des pratiques et des stratégies que l'enseignement peut mettre en place mais elle ne portent aucunement sur les contenus des cours que celui-ci dispense. Beaucoup d'études et de chercheurs s'intéressent à une forme de différenciation se concentrerait plus précisément sur le contenu et son adaptation. Christian Puren fait paraître en 2001 un article intéressant sur la "Pédagogie différenciée en 9 classe de langue" dans Les Cahiers pédagogiques. Tout au long de ces quelques pages, il s'interroge sur les conceptions de la différenciation et reprend certains des concepts proposés par Philippe Meirieu, en les modifiant quelque peu. Ainsi, il dresse un distinguo entre ce qu'il qualifie de "variation" et qu'il définit comme une "diversifications des tâches [] mais tous les élèves [] réalisent chacune d'elles en même temps ou du moins dans le même ordre" (p. 1) et la différenciation "proprement dite", phase durant laquelle "les élèves, individuellement ou en groupes, réalisent à un moment donné des tâches différentes" (p. 1). Pour Puren donc, la différenciation ne serait véritable que lorsque les tâches elles-mêmes sont différentes - la modification du contenu (réduction, adaptation au niveau, temps de travail supplémentaire, consignes) ne serait donc qu'une simple variation. Pour Laura Baecher, dans son article intitulé "Differentiated Instructions for English Language Learners : Strategies for the Secondary English Teachers" et paru dans le Wisconsin English Journal en 2011, il n'y a pas lieu de parler de "variation". Elle dresse cependant une relation binaire entre ce qui relèverait d'un "para-apprentissage" inhérent au contenu et que l'on définirait en fait comme tout ce que l'enseignant peut utiliser pour faciliter l'accès au contenu - la voix et ses modulations, la vitesse, les rôles, les répartitions en groupes, etc Tout cela vient ensuite compléter les stratégies de différenciations appliquées au contenu, et Baecher souligne d'ailleurs l'importance de maintenir une complémentarité entre ces outils : Often, teachers believe the content is being "watered" or "dumbed" down when differentiated materials, tasks, or products are introduced [] First, if the original task or material is so beyond the student's language ability as to render them unable to be involved successfully, then this portion of the lesson is likely to be completely wasted. If, on the other hand, the material or task has been restructured, reconceived or simplified in linguistic demands, such that the learner can be actively involved in the learning, this is that then becomes productive. (p. 5 - 6) Baecher souligne l'importance de sélectionner et d'adapter son contenu pour rendre l'apprenant et l'apprentissage actif dynamique. Une modification d'un contenu va ensuite aller de paire avec une activité adaptée - le but n'étant pas véritablement de se positionner sur l'importance du support de contenu que sur la mobilisation que l'enseignant peut tirer de l'individu et du groupe, et sur ce que son ou ses activités peuvent permettre en terme d'apprentissage à partir de ce même support de contenu. Il s'agit donc, en d'autres termes, pour l'enseignant de veiller à rester focalisé sur les besoins de sa classe plus que sur les supports. L'article d'Audrey Bonvin paru l'an dernier tend d'ailleurs à aiguiller dans ce même sens. 10 En soi donc, nous avons pu, en parcourant de façon très brève et succincte, une approche théorique de la différenciation, dégager quelques grands points importants concernant la pratique. Difficile à appréhender clairement, elle peut se manifester par un travail de l'enseignant sur ce que l'on appellera la "forme" de son cours, et que l'on regroupera sous les éléments mis en place pour faire accéder au sens. Cela étant dit, elle peut également se caractériser par un manipulation des supports utilisés, par les activités proposées ou à proposer, ainsi que par les tâches à effectuer. Idéalement enfin, la différenciation devrait tenir cas de ces deux sphères pour moduler au mieux l'apprentissage, le rendre effectif pour tous, et faire en sorte que TOUS les élèves puissent (re)devenir acteurs en cours de langue. En gardant cette préoccupation en tête, c'est à présent dans la salle de classe 301, que je fréquente moi-même assez régulièrement, qu'il convient non plus d'étudier la pratique de la différenciation, mais MA pratique de la différenciation, face à mes propres classes et mes propres doutes - comment puis-je faire en sorte que chacun de mes élèves, peu importe son niveau, fasse partie du groupe classe et progresse en anglais?
DEUXIEME PARTIE : ROOM 301 1)
Présentation
s générales
:
Les quelques recherches théoriques que j'ai pu mener durant le court laps de temps dédié à ce travail m'a montré au moins une chose : la préoccupation centrale de n'importe quelle forme de pédagogie différenciée se résume essentiellement à faire de l'élève, quelque soit son niveau, ses capacités ou son origine socio-culturelle, l'acteur de son apprentissage. C'est sans doute enfoncer une porte ouverte que de faire un tel , mais c'est pourtant bel et bien là qu'il faut commencer, ou plutôt recommencer. Tout au long des premières lignes de ce travail, j'ai tenté de présenter la relation étroite qui unit mon établissement actuel, le collège Pierre de Ronsard, et la question de la différenciation. Comme je le mentionnais plus tôt, tout a véritablement changé lorsque la nouvelle sectorisation est entrée en vigueur : dans les classes du collège aujourd'hui, des groupes d'une trentaine d'élèves s'assoient et s'associent, travaillent et expérimentent. Certains ont plus de mal que d'autres, beaucoup plus de mal, et c'est bien là le problème qui se dresse non pas seulement devant moi, mais bien devant l'ensemble de l'équipe pédagogique. Le changement relativement récent fait que les groupes classe existants sont constitués d'élèves brillants, qui peuvent travailler sereinement à la maison, voyager régulièrement, et profiter de certains atouts favorables à leur apprentissage, et de l'autre côté, d'autres élèves, en grande difficulté et déjà confrontés à beaucoup d'obstacles à leur bon développement. Toutes les classes sont hétérogènes, c'est presque un fait. Mais l'hétérogénéité que j'ai pu constater, et que je continue encore de constater aujourd'hui, font qu'il est encore très dur de préparer des cours qui soient efficaces et optimaux à 100% d'une part, et que je continue de m'interroger sur les manières de faire évoluer ma pratique, sur les stratégies à développer pour être un meilleur enseignant et parvenir à faire progresser toute ma classe sans ne laisser personne pour compte d'une manière ou d'une autre. Avant d'aller plus loin, il convient de présenter les deux classes avec lesquelles j'ai travaillé cette année. Ma classe de 6e est constituée de vingt neuf élèves, trente au début de l'année, et elle est peut-être la plus hétérogène des deux. Dans cette classe, une grande majorité d'élèves avait déjà pratiqué l'anglais à l'école primaire, mais beaucoup d'autres avaient reçu des cours d'initiation à l'allemand. Sur trente, dix sept connaissaient l'alphabet, les couleurs et savaient compter jusqu'à vingt; huit pouvaient faire relativement la même chose en allemand, et cinq n'avait pas du tout reçu d'initiation à une langue étrangère. Autre point important : à leur arrivée en 6e, ces cinq élèves et deux autres ne maîtrisent certaines voire toutes les bases dites fondamentales de l'apprentissage, à savoir la lecture et l'écriture du français. Ma classe de 6e présentait donc, dès septembre, des écarts de niveaux vraiment considérables, à tel point que certains collègues très expérimentés se retrouvaient vite désemparés face à une telle configuration. Ce schéma n'est pas tout à fait le même pour ma classe de 5e. On pourrait avancer qu'il y a une hétérogénéité certaine dans cette classe, mais que celle-ci relèverait plutôt des profils d'élèves 12 constituant la classe. Ceci étant dit, même une telle hétérogénéité ne fait pas sortir la classe d'une "norme" relative. La 5eD est une classe de trente élèves, qui compte cinq élèves perturbateurs remarqués par l'ensemble de l'équipe pédagogique, ainsi que des collègues qui n'assurent même pas de cours avec cette classe. À ces éléments perturbateurs vient s'opposer une bonne voire très très bonne tête de classe qui, parfois mais encore trop rarement, parvient à tirer le reste de la classe vers le haut. Entre ces deux pôles - une grande majorité d'élèves éteints, n'osant pas s'affirmer par peur de moqueries ou par peur de ne pas être à la hauteur, et une ambiance de travail plus que catastrophique. Ce lot d'une vingtaine d'élèves compte par ailleurs des éléments qui attirent et requièrent une attention toute particulière : un élève au profil très réservé pour qui la moindre prise de parole, le moindre mot même répété, est déjà se faire violence à bien des égards, un élève diagnostiqué hypersensible, et un dernier élève très isolé et en voie de décrochage scolaire à son entrée en 5e. C'est face à ces deux classes que je me suis lancé il y a quelques mois. Bien sûr, s'il n'y a pas eu d'hésitations, il y a eu et il y a toujours de nombreuses questions - ces questions m'ont conduit à m'interroger sur la différenciation pédagogique. J'ai commencé à discuter et à lire quelques écrits sur la question avant de véritablement formuler un sujet pour le présent travail, et assez vite, il m'est apparu que traiter la question de la différenciation de façon générale était à la fois beaucoup trop vague, et clairement irréalisable, surtout en si peu de temps. Après quelques semaines et plusieurs heures de cours pour apprendre à connaître mes classes et les élèves, j'ai pris la décision de centrer ma réflexion sur certains profils d'élèves, des cas qui m'apparaissaient intéressants à traiter par leur complexité face à la situation. J ai d'ailleurs très vite remarqué que dans chaque classe, il m'était possible d'approcher la notion de pédagogie différenciée sous des formes multiples, ce qui pouvait ensuite me permettre d'observer les outils qui m'étaient disponibles et que je pouvais apprendre à mettre en place. Dans chaque classe, j'ai relevé deux cas (soit quatre au total) qui me posaient problème pour des raisons bien spécifiques. Et puis, le temps avançant, je me suis rendu compte qu'ajouter un cinquième cas pourrait être intéressant à plusieurs égards. Avant de parler plus précisément des cas auxquels je me suis intéressé, il convient d'apporter quelques précisions supplémentaires. J'ai choisi d'observer et de mener mes expérimentations spécifiquement en salle 301, la salle que j'occupe la plupart du temps. Cette salle a la particularité d'être rangée en "U", ce qui serait la disposition la plus compliquée à gérer pour débuter (ce que l'on m'a dit à plusieurs reprises, et qui me paraît aujourd'hui un peu exagéré). Ainsi posé, le cadre de cette salle me permet d'observer l'évolution des élèves choisis dans une situation de classe bien précise et similaire ou quasi-similaire à celle du début d'année, et ce sur la période de Septembre à Juin (même si le travail de recherche ne couvre finalement qu'une période très courte). Cela étant dit, je n'ai pas ignoré le travail des deux classes dans une salle plus "traditionnelle"; comparer les deux dispositions et leurs effets n'est pas dénué d'intérêt.
2) Les profils :
La salle 301 a accueilli le premier cours de ma carrière et la majorité de ceux qui ont suivi. J'y ai appris à découvrir et à bien connaître mes classes et les élèves qui les constituent. C'est 13 justement au bout de cette période de découverte mutuelle, après avoir observé que certains profils avaient des besoins bien particuliers, que j'ai décidé de me concentrer sur la manière de travailler et moduler ma manière d'enseigner. Deux profils d'élèves en difficulté ont immédiatement attiré mon attention en 6e. S'il connaît les rudiments de l'écriture et qu'il produit quand même quelques écrits malgré quelques fautes d'orthographe, M. présente de gros problèmes de calligraphie. Il me m'a pas fallu longtemps pour également remarquer que sa lecture était hachée et que la compréhension globale d'un énoncé simple, même en français, s'en trouvait entravée. Mais des deux maux, ses difficultés à l'écrit, et notamment pour copier les leçon , m'ont paru les plus conséquentes et nécessiteuses. Quelques heures d'observation m'ont par ailleurs très vite révélé que M. avait un gros problème de gestion du temps, conséquence directe de sa lenteur lors du passage à l'écrit, ce qui impactait grandement ses productions ou ses prestations lors des évaluations faites en classe. Même s'il est plus à l'aise lorsqu'il s'agit de s'exprimer et se montre très volontaire à l'oral, l'aisance de F. ne dissimule absolument pas les faits - il ne sait pas lire ni écrire le français (qui est sa langue natale). Comment donc pourrait-on travailler une langue étrangère sans même maîtriser les rudiments du français? C'est une question qu'on est en droit de se poser, et que certains parents n'ont pas hésité à poser lors de réunions parents-professeur. En observant attentivement les prises de notes et les productions écrites de F., ainsi qu'en m'entretenant avec les collègues d'histoire et de français, j'ai remarqué que l'élève transcrivait presque phonétiquement les mots qu'il entendait ou qu'il souhaitait exprimer. Ce qui était intéressant à remarquer qui plus est, est que F. montrait une grande activité en classe, et sa note de participation orale en a d'ailleurs attesté au premier et au second trimestres. L'écrit, tant sur le point de l'expression que de la compréhension, reste donc le gros point noir concernant l'apprentissage de F., un point noir qui, dès les premières semaines de septembre, faisait dire à certains collègues que cela n'augurait rien de bon pour la suite. De façon presque ironique, la classe de 5e présente un profil d'élève quasiment opposé à celui de F. Cet élève, que j'appellerai T. ne brille pas particulièrement à l'écrit, mais ses résultats ne sont pas véritablement catastrophiques non plus. Ce qui est plus inquiétant en revanche, c'est bien son activité, ou plutôt sa non-activité orale. T. est un élève plus que réservé pour qui la moindre interaction orale, qu'il s'agisse d'une simple répétition de mot, d'une lettre, ou de n'importe quoi, est une véritable torture. Mon tuteur m'en avait déjà parlé dès les premiers cours puisque T. était un des ses élèves en 6e, et même ses parents m'avaient contacté dès la rentrée pour m'a . En soi, le profil de T. est donc d'autant plus intéressant puisqu'il est déjà connu de plusieurs adultes, dont mon tuteur qui peut aussi juger de l'évolution de son activité en classe. Beaucoup plus actif en classe, B. était initialement le dernier cas d'élève pour lequel je voulais travailler à différencier mon enseignement. Brillant en tout point à l'écrit comme à l'oral, B. jouit déjà d'une aisance remarquable dans sa maîtrise de la langue et d'une finesse d'esprit qui aurait plus tendance à caractériser un élève de 3ème. En m'appuyant sur les premières évaluations et quelques diagnostiques basés sur le CECRL, j'ai très rapidement déterminé que B. avait déjà acquis un niveau B1 à B1+ dans les cinq activités langagières. Ainsi, le problème que j'ai vite rencontré n'était plus celui de faire en sorte que l'élève "se raccroche" à mon cours, mais plutôt qu'il n'en décroche pas. Enfin, c'est précisément par cette réflexion que j'ai décidé de m'attacher à travailler autour d'un autre cas difficile à gérer dans ma pratique de tous les jours : celui de L. L. est un élève 14 problématique -- non pas qu'il soit un perturbateur ou même dissipé, mais tous les professeurs s'accordent à dire qu'il est compliqué à gérer. Une situation familiale chaotique fait que L. n'est pas le plus à l'aise socialement, il passe le plus clair de son temps seul ou à jouer sur son ordinateur (il arrive d'ailleurs qu'il somnole en classe après une nuit passée à jouer). Presque aliéné du groupe classe, il a souvent été moqué et marginalisé, et ces relations influent sur l'ambiance de travail. Par ailleurs, L. est plutôt passif en classe -- il ne participe que très rarement, mais montre des capacités. Ceci dit, il semble faire un blocage presque impulsif face à n'importe quel type de travail nécessitant une production écrite. Il n'a pourtant jamais été diagnostiqué comme étant atteint d'un trouble dys, et ce malgré des tests récents. Dans le cas de L., plus encore que de le "raccrocher" au cours d'anglais, ma préoccupation principale a été et continue d'être de travailler à sa ré-intégration au sein du groupe classe. 3) Stratégies et expérimentations : Ces cinq élèves et leur profils particuliers m'ont ainsi donné l'occasion de mettre en place plusieurs types de stratégies pour tenter de différencier mes enseignements et d'adapter un peu plus mes cours à leur besoin sans pour autant changer de cap pour la classe. En outre, travailler à partir de ces profils là m'a aussi permis de réfléchir à diverses itérations et implications de la différenciation, en ce que la notion tendrait ici à m'aider à aider des élèves dont les besoins sont fondamentalement différents. Si l'adaptabilité doit servir la différenciation, le contraire paraît tout aussi avéré. C'est donc dans le souci de pouvoir adapter ma pratique aux cinq profils différents de ces élèves que j'ai commencé à mettre des choses en place. Bien entendu, étant donné mon expérience relativement courte, il semblait tout naturel que ces "choses" ne fonctionnent pas du premier coup, ni même du deuxième. En cela, il paraissait logiquement plus naturel de parler d'expérimentations. Il m'a fallu réfléchir longtemps pour savoir comment les inclure et les présenter dans le présent travail : j'ai d'abord pensé à les catégoriser - ce qui relève pour moi d'une différenciation du contenu, et ce qui touche à ce que j'ai appelé plus tôt le "para-apprentissage". J'ai finalement décidé de suivre l'ordre chronologique de mise en place des expérimentations - cet ordre, plus logique pour moi, permet non seulement de voir l'évolution des élèves et de la classe, mais aussi ma propre évolution vis à vis de la pratique de la différenciation au fur et à mesure de mon avancée dans la recherche, ainsi que vis à vis des formations dispensées en parallèle. N'étant quasiment pas armé pour faire face à ces problèmes bien spécifiques, ma première véritable expérimentation a été, dès la fin du mois de septembre, de travailler à adapter mon contenu, et plus précisément au niveau de la longueur. Pour M., en classe de 6e, qui affiche des soucis particuliers de gestion du temps dus à ses difficultés avec la calligraphie, j'ai d'abord commencé par raccourcir les devoirs tout en adaptant les barèmes. Ainsi fait, sur un contrôle à huit exercices, M. n'en aurait plus que cinq à faire, avec un sixième en bonus s'il arrive à suffisamment bien gérer son temps. Je dois dire que l'adaptation du contenu m'avait aussi poussé à réfléchir à la prise en notes des leçons - faire en sorte qu'il prenne tout en notes voulait aussi dire donner plus de temps à la classe pour rédiger, et la majorité des élèves écrivant à un rythme "normal", beaucoup avaient fini très tôt et avaient tendance à se dissiper. 'avais donc décidé de taper et imprimer la 15 leçon qu'il n'arrivait pas à écrire, mais en y réfléchissant au cours des semaines qui ont suivies, cette solution m'est apparue comme une simple rustine qui, sur le long terme, n'aiderait en rien l'élève en difficulté. En attendant de trouver une solution plus appropriée, j'ai décidé de déplacer M., le mettant à côté d'un élève "moteur" sur lequel il pouvait s'appuyer en classe et en dehors. De cette façon, M. pourrait rattraper le contenu qui lui manquait. Contrairement à M., B., en classe de 5e n'a pas de problème de calligraphie, mais la question du contenu se pose tout autant pour lui - la seule différence étant que le contenu devrait être adapté "vers le haut". Après les premières évaluations, il est apparu assez vite que B. pouvait aller bien plus loin que ses camarades sur une durée de temps similaire - j'ai donc décidé d'augmenter le nombre de questions en utilisant des bonus, et d'augmenter le nombre d'énoncés attendus en production écrite et orale. Lors d'un exercice de production écrite où il était attendu neuf phrases, B. a dû en produire au moins quinze. Sans grande surprise, il s'est amusé et a produit plus de vingt phrases. J'ai donc continué à complexifier ses productions, en affinant mes consignes spécifiquement pour lui. Lors de l'exercice de production écrite suivant, je lui ai demandé de produire au moins dix-huit phrases, et d'inclure des connecteurs différents pour lier son écrit logiquement : "Write nine sentences about your superhero." lisait la consigne donnée à la classe, tandis que celle donnée à B. était "Write AT LEAST eighteen sentences about your own superhero. Make sure you use connectors to organize your presentation." Rallonger et complexifier le contenu produit a donc été une solution partielle, que j'ai couplé à un allongement et une complexification de ma propre consigne. Enfin, une fois que la phonologie a été introduite, je l'ai également incluse dans les évaluations et m'en suis servi pour introduire de nouveaux bonus - lier le vocabulaire vu dans les leçons avec une activité avec lien avec la phonologie (repérer le phonème correspondant, transcrire un digramme présent dans un mot et vu en ). De façon assez ironique, complexifier n'est pas un problème. Simplifier un exercice, en revanche, assez difficile. Dans le cas de F., qui ne maîtrise la lecture que de façon approximative tandis que l'écriture reste un problème majeur, obtenir une note à une évaluation qui ne soit pas catastrophique relevait presque de l'exploit. Assez vite donc, et après plusieurs discussions avec mon tuteur terrain, j'ai décidé de moduler certains exercices. Un exercice visant à ré-investir du vocabulaire et des structures vues en classe par la description d'une image extraite d'un dessin animé demandait par exemple un niveau de rédaction bien trop important pour F. Sur les conseils de mon tuteur terrain, j'ai donc eu recours à une forme de simplification : F. a eu à entourer les mots de vocabulaire en rapport avec ce qu'il pouvait voir sur la photo. Cette modification de l'exercice perdait une visée, puisqu'il était difficile de ré-utiliser des structures, mais impliquait tout de même une certaine difficulté pour F., qui devait essayer d'associer un mot à lire avec une image. L'exercice impliquait aussi une difficulté pour moi, puisque j'ai tenu à rester proche de F. durant le temps qu'il lui fallait pour faire l'exercice, de façon à veiller à ce qu'il n'entoure pas des mots un peu au hasard. De façon générale, c'est à partir de ce point que j'ai commencé à transformer certains exercices un peu trop "écrits" pour travailler avec des images, et utiliser des prompts de consigne plus simples comme "circle" ou "highlight". C'est d'ailleurs en cherchant des moyens d'améliorer ma pratique pour qu'elle soit plus effective et efficace pour des élèves comme F. que je me suis posé la question de l'évaluation. 16 Comme il l'est prévu, les enseignants d'anglais sont censés travailler et évaluer les cinq activités langagières, en donnant peut-être la part légèrement plus belle à l'oral au collège. En prenant conscience des besoins et des écueils rencontrés par F., j'ai décidé de continuer le travail sur toutes les activités langagières mais de favoriser une notation sur les activités langagières orales. Ainsi, lorsqu'il a été demandé à la classe de présenter un membre de la famille royale, ou un monument écossais, j'ai demandé à F. et deux autres élève , de le faire sous forme de présentation orale. Tandis que les autres rédigeaient, ces trois élèves étaient dans un coin de la salle et récitaient leur présentation avant de passer devant moi au bureau. Même si logistiquement parlant, cette légère transformation peut être difficile à gérer (en classe et hors classe, puisqu'il faut considérer un deuxième barème dédié à l'expression orale), c'est avant tout un moyen de valoriser les compétences et les capacités d'élèves qui n'ont, par ailleurs, pas l'habitude d'être valorisés par leur travail. Ceci étant dit, après avoir discuté de cette décision avec mon tuteur terrain, une question fut rapidement soulevée : comment arriver, un jour, à évaluer les élèves dans ce cas-là sur les cinq activités langagières? Pour faire la part belle à l'oral et souligner son importance, j'ai, dès le mois de septembre, mis en place une fiche de participation que je remplis moi même à chaque cours. Je me suis inspiré de la façon dont mon tuteur note lui-même la participation -- chaque intervention donne un petit bâton, et chaque fin de trimestre est synonyme d'un rattrapage en mathématiques pour quelques calculs savants. Au bout de quelques semaines, j'ai décidé de modifier légèrement la fiche, en séparant les prises de parole spontanées, et celles sollicitées. Jusqu'au mois de novembre, la feuille est resté un outil fixe que je changeais mensuellement. Mais lorsque j'ai commencé à m'intéresser de plus près au cas de T., dont la participation était à zéro pour les spontanées et trois pour les sollicitées, j'ai réalisé qu'une fiche tenue mensuellement ne pouvait pas être vraiment utile. J'ai donc décidé de mettre en place une fiche journalière, qui me permet et permet aux élèves de consulter leurs points du jour, remarquant ainsi l'évolution dans leur participation et leur implication en classe. Des élèves à l'aise à l'oral comme F., ou de très bons élèves comme B. pouvaient ainsi sentir une impression de récompense immédiate à la fin de chaque cours, ce qui a créé une atmosphère de travail assez intéressante, chacun voulant dépasser son score précédent. Voyant la forme d'effervescence et d'engouement que ce changement semblait susciter, j'ai décidé de "con quer" quelques élèves, dont T. et L., en entretien individuel. Pour ne pas empiéter sur le temps personnel des élèves et qu'ils prennent cela pour une punition, j'ai décidé de ne mener ces entretiens que sur une durée de cinq à sept minutes, en leur précisant bien (timer au tableau) que cela ne durerait pas. L'idée derrière l'entretien était bien entendu de rassurer l'élève et de montrer que le cours de langue est un endroit où l'on peut se laisser aller à tenter sa chance. Mais le véritable but pour des élèves comme T. ou L. était de montrer l'importance de leur participation aux cours. Dans le cas de T., sa moyenne en anglais a chuté au premier trimestre exclusivement à cause de sa note d'oral qui était de 6.5/20, faisant passer sa moyenne sous la barre des 10/20. Nous en avons parlé un peu, et je lui ai proposé de mettre en place, s'il s'en sentait capable, un petit contrat : s'il participait une à deux fois maximum par cours, pour n'importe quel type d'énoncé, il aurait au moins 10/20 en note d'oral, ce qui serait bénéfique pour sa moyenne. Le voyant hésiter un moment, j'ai précisé qu'il pourrait participer une à deux à n'importe quel moment du cours, et que s'il voulait participer au rituel de classe chaque jour et rester tranquille après, il pouvait, mais qu'il devait 17 essayer de se forcer un peu pour s'assurer un 10. Mon argument du "n'importe quand" ayant visiblement fait son effet, T. a accepté et, dès le lendemain, a participé une fois par cours. Pour moi, il s'est avant tout agi de trouver quelque chose qui pourrait débloquer la situation, et mon tuteur, ayant eu T. en 6e, m'a un jour demandé, alors qu'il venait de m'observer, qu'est-ce que j'avais mis en place pour réussir à faire que cet élève participe. Je lui ai donc expliqué l'idée du contrat, et le procédé que je souhaitais par la suite mettre en place - celui de la gradation relative. Si T. pouvait participer une à deux fois par cours, je pourrais peut-être essayer de le faire aller plus loin; une idée sur laquelle mon tuteur m'a averti - un peu trop pousser un élève dans ce genre de situation pourrait avoir l'effet inverse de celui escompté. J'ai aussi demandé à L. de rester pour un entretien. De la même manière, je lui ai expliqué que cela ne durerait pas plus de cinq minutes à sept minutes, le timer étant toujours affiché derrière moi. Il faut dire que cet entretien était nécessaire à plusieurs égards : en premier lieu, c'est un élève qui est difficile à noter, et ce dans toutes les matières. Il ne rend aucun travail personnel à faire à la maison, et rend copie blanche sur copie blanche lors des devoirs faits en classe. Au moment de l'entretien, fin novembre, ma collègue d'allemand et moi-même avions tous les deux réussir à obtenir quelques lignes sur les dernières productions demandées aux élèves, et nous en étions à la fois étonnés et ravis. C'est dans ce contexte-là qu'il m'a semblé judicieux d'avoir une conversation avec lui, pour souligner l'effet positif de son dernier effort en date. Comme je l'ai déjà mentionné plus haut, mon souci principal concernant L. était d'éviter qu'il ne "décroche" complètement du cours, ainsi, l'entretien a plutôt eu pour but de lui faire comprendre que j'avais bien remarqué qu'il avait des capacités, et qu'il était dommage de ne pas les montrer. En reprenant la feuille de participation journalière, je lui ai expliqué la même chose qu'à T., à savoir qu'il venait à participer au moins une à deux fois par cours, il s'assurerait un 10/20 pour le trimestre. Bien sûr, j'ai aussi précisé que le type d'énoncé ou le moment choisi n'importait que très peu, que l'important était de montrer que lui aussi était là, avec nous. L'entretien avec L. n'a pas fonctionné comme prévu, mais j'y reviendrai plus longuement. Il a participé plusieurs fois au cours qui a suivi, en demi-groupe. Il m'a immédiatement semblé que le demi-groupe était peut-être le meilleur moment pour donner la parole à ceux qui auraient tendance à se laisser porter par le flot de paroles de la masse. En effet, j'ai la chance d'avoir des cours en quinzaines en demi-groupes avec mes deux classes, ce qui me permet de mettre quelques choses en place sur un timing différent. J'utilise ement ces heures en demi-groupe pour de la remédiation/consolidation, ou pour des activités plus méthodologiques, toujours en lien avec les cours en classe entière mais fondamentalement autonomes. Les heures en demi-groupe sont particulièrement intéressantes puisqu'elles constituent, à mes yeux, déjà une forme de différenciation. Les répartitions hasardeuses ont fait, en 5e, que les groupes sont sensiblement opposés. Le groupe 1 rassemble tous les éléments perturbateurs et une bonne partie de la tête de classe, dont B. C'est un groupe qui est difficile à canaliser et j'entends bien trop souvent mes collègues parler de l'heure de travail avec ce groupe comme "la pire heure de la semaine". Ceci étant dit, s'ils sont plus durs à canaliser, il faut bien avouer qu'ils vont plus loin que ce que l'on attendrait lorsqu'ils se mettent au travail, ce qui n'est pas dénué d'intérêt. Le groupe 2 quant à lui avance à un rythme plus tranquille, mais permet aux élèves plus timides et réservés 18 comme T. de s'exprimer sans avoir la pression des élèves au commentaire facile ou celle de rivaliser avec les plus à l'aise. Les choses n'ont pas été aussi "bien" faites avec la classe de 6e. Les demi-groupes comme la classe entière étaient marqués par les écarts de niveau les plus extrêmes, si bien que l'heure prévue en remédiation ou consolidation s'en trouvait souvent perdue pour beaucoup. En concertation avec l'équipe, et principalement les collègues de français, mathématiques et histoire, nous avons donc décidé de changer la répartition des groupes, et de procéder à une harmonisation par "niveaux" pour obtenir des groupes plus homogènes. Ainsi, F. et M. se retrouvaient dans le même groupe, accompagnés par les élèves les plus fragiles et en difficultés. Les heures en demi-groupes ont donc été ensuite allouées, pour un groupe au moins, à des remédiations plutôt transversales sur la lecture, l'écriture et la construction d'une phrase, grâce à des activités ludiques et propices à l'interaction. J'ai par exemple mis en place une activité, dans le cadre d'une séquence sur l'Écosse, qui visait à produire quelques phrases pour créer une histoire de conte. Après avoir travaillé l'ordre des mots, le verbe, et un peu de lexique, le groupe s'est lancé dans une construction collective d'une histoire (qui était immédiat matérialisée au tableau puisque je la tapais en même temps). Une fois l'histoire créée, le groupe a demandé s'il serait possible de la lire au groupe 2, ce que nous avons fait en classe entière la semaine suivante. C'est aussi cette tentative d'homogénéisation par niveau qui m'a fait réfléchir à ma répartition de la classe dans la salle. S'il m'est impossible de changer la disposition des tables puisque ma collègue est celle qui a souhaité que l'on place les tables en U, j'ai envisagé de travailler sur un plan de classe de manière plus approfondie. Mon premier plan de classe, celui dit "par défaut", avait suivi une répartition garçon/fille puisque je ne connaissais pas les élèves. J'avais ensuite déplacé quelques élèves ça et là pour palier aux petits problèmes de gestion de classe, mais je ne m'étais pas posé la question de l'impact pédagogique de la répartition physique du groupe. Après m'être penché sur les listes et avoir pris quelques notes sur des associations à éviter, j'ai décidé de mettre en place un système que j'appellerai "un sur deux", à savoir essayer d'harmoniser la répartition de la classe dans la salle de façon à ce qu'un élève fragile soit toujours entre deux élèves, pas forcément moteurs, mais plus à l'aise. Dans un même temps, certaines places stratégiques dans une salle en U devaient être occupées par les bons éléments - ainsi, j'ai placé un perturbateur à la première place à ma droite, ce qui me permettait à la fois d'avoir un oeil constant sur lui, et de le faire venir au tableau si besoin pour lui donner un rôle particulier - son véritable souci étant d'avoir besoin d'attention de façon constante. De la même manière, j'ai placé B. dans un des coins formé par le U, tout en sachant bien que peu importe la place à laquelle il serait assise, il serait toujours efficace en cours. C'est cependant lorsqu'il est entré pour la première fois dans la salle avec ce nouveau plan de classe et qu'il a déclaré - "oh non, pas au fond, je veux continuer d'apprendre", que j'ai cru bon de le convoquer en entretien également. L'entretien avec B. était sensiblement différent de celui mené avec les autres élèves : il était en effet majoritairement motivé par l'envie de lui expliquer mes choix. J'ai souligné les capacités remarquables qu'il possède déjà a que toute la confiance que je lui porte, avant de lui expliquer qu'il pouvait aussi être un véritable acteur dans l'apprentissage des autres. Je ne sais pas dans quelle mesure il est bon ou non d'exprimer ce genre de choses à un élève, mais le fait est que B. montre 19 déjà beaucoup de finesse d'analyse et de compréhension, et une envie importante de se tirer vers le haut et d'en faire profiter la classe. J'ai donc cherché à le valoriser et à le motiver en soulignant ce nouveau rôle qu'il pouvait endosser à sa guise. Qui plus est, c'est également le moment où je lui ai proposé de lui donner un peu plus de travail pour aller plus loin. Avec son accord et celui de ses parents, évidemment, et seulement s'il s'en sentait capable, je lui ai proposé de lire un ouvrage que nous irions sélectionner ensemble au CDI et d'en faire une compte-rendu, sous la forme de son choix, à chaque vacances. Je lui attribuerais ensuite une note qui ne compterait pas dans la moyenne, mais prendrais le temps de lui faire des remarques et de lui donner des conseils sur comment continuer à s'améliorer. B. a immédiatement eu l'air enchanté à cette idée, et m'a dit qu'il en parlerait avec ses parents, mais qu'il était "très motivé". L'année avançant, j'ai par ailleurs pu constater que la motivation et l'effervescence des élèves avaient une certaine tendance à diminuer (certains diraient à se concentrer sur les vacances). S'est donc rapidement posée la question de comment redynamiser la classe pour pouvoir aller plus loin. Le tableau numérique est étrangement d'une grande aide pour cela (et pour bien d'autres choses d'ailleurs). L'outil est une véritable source de motivation, pour les 6e comme pour les 5e, qui n'ont de cesse de vouloir interagir avec. Si l'on y réfléchit bien, et à leur demander la raison de cet engouement, il semble que les élèves voient le tableau comme n'étant rien d'autre qu'une "grosse tablette". Et c'est précisément sur cet engouement que j'ai voulu jouer. En effet, le tableau permet, à des moments précis et bien spécifiques, que certains élèves montrent qu'ils ont des compétences plus transversales que celles simplement limitées à la langue vivante. C'est notamment le cas de L. qui passe son temps à jouer sur l'ordinateur. À plusieurs reprises, je l'ai encouragé à venir au tableau pour des activités de manipulation de l'outil numérique, ce qu'il a réalisé à la perfection, permettant à la fois l'avancée du cours, mais aussi l'interaction orale de ses camarades. De cette façon là, l'outil numérique est à la fois une source, ponctuelle certes, de motivation et de différenciation. J'ai tenté d'incorporer beaucoup plus d'utilisation d'outils numérique au sein de mon cours au fur et à mesure que l'année avançait, comprenant bien qu'il s'agissait aussi d'une méthode pour rendre ce dernier un peu plus attractif (d'autant plus que les autres professeurs n'utilisent le TNI que comme un tableau classique).
| 9,271
|
30/tel.archives-ouvertes.fr-tel-01772374-document.txt_6
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,553
| 15,078
|
Cette vocation occupationnelle de la lecture se radicalise chez Michel Houellebecq, pour qui le rapport qu'entretient le voyageur contemporain avec la lecture s'apparente à une forme de protection contre le monde extérieur : la lecture vaut moins pour ce qu'elle apporterait objectivement (du plaisir ou des connaissances) que par la possibilité qu'elle offre de faire oublier le temps présent et de mettre le monde réel à distance. Son absence, souvent éprouvée, est toujours ressentie par le voyageur comme une douloureuse privation. C'est vrai dans Plateforme lorsqu'est évoqué l'avion qui emmène le protagoniste en Thaïlande : le livre s'y trouve assimilé à une drogue dont on voudrait frustrer les passagers : « Ce stress, l'équipage s'ingénie à le porter à son plus haut niveau en vous interdisant de le combattre par les moyens usuels. Privé de cigarettes et de lecture, on est également, de plus en plus souvent, privé d'alcool. » (PL, 37) Cette sensation de manque est également perceptible quand le personnage se débarrasse des livres qu'il avait emporté avec lui : « le problème était maintenant qu'il fallait que je trouve quelque chose à lire. Vivre sans lecture c'est dangereux, il faut se contenter de la vie, ça peut amener à prendre des risques. » (PL, 97) Cette frustration est enfin perceptible à bord de l'autocar à bord duquel prend place le protagoniste lorsqu'il part en excursion : « je pris conscience que cette fois je n'avais vraiment plus rien à lire ; j'allais devoir affronter la fin du circuit sans le moindre texte imprimé » (PL, 108-109). Au fond, la nature des livres dont s'entoure le voyageur importe peu : rava au statut de « texte imprimé », la lecture se trouve réduite à un geste social permettant de se protéger du monde et des autres en maintenant cette distance que semble caractériser la pratique du tourisme. Dans Les Belles Âmes, Lydie Salvayre s'amuse de cet usage de la lecture en contexte touristique. Elle le fait sur un mode résolument caricatural : Odile Boiffard, fâchée après les visites qui lui sont imposées, après les touristes dont elle subit la présence et après son mari qui l'exaspère, désespère de ne pas trouver ses lunettes : « Odile voudrait s'abîmer dans la lecture d'un roman, oublier les images insoutenables du matin ainsi que les conflits groupaux et les anicroches conjugales, et se retirer tout au fond d'elle-même. » (LBA, 121) Sans doute entre-til une part d'auto-dérision de la part de la romancière qui, assumant un usage décomplexé de la répétition, fait du genre qu'elle pratique un remède universel : « Et quoi de mieux qu'un roman pour oublier les images insoutenables du matin ainsi que les conflits groupaux et les anicroches conjugales, et se retirer tout au fond d'elle-même? » (LBA, 121)
3.1.2 Des voyageurs en prise avec le quotidien : journaux et magazines
Un tel usage de la lecture en contexte touristique ne prédispose évidemment pas au choix de lectures exigeantes. Et, de fait, la littérature se trouve bien souvent réduite à portion congrue 141 dans la représentation que les romanciers donnent des lectures auxquelles s'adonnent leurs personnages. Celles-ci, gouvernées par des préoccupations quotidiennes, prennent bien souvent la forme de journaux et de magazines. À tel point que leur présence peut être assimilée à un marqueur romanesque du contexte touristique – du moins dans les années 1990-2010302. Ces derniers sont une composante du décor : si le narrateur de Zone de Mathias Énard évoque « [le] magazine à deux sous que [son] voisin a bien plié pour pouvoir le lire sans effort » (ZO, 32), c'est qu'« il faut toujours [] un lecteur de Pronto » (ZO, 369) dans un train italien. Dans Bakou, derniers jours, Olivier Rolin mentionne à bord d'un avion « [l]es passagers assis autour de [lui], tapotant sur leur ordinateur, lisant le journal » (BDJ, 146) ; dans Barnum des ombres, Nicole Caligaris décrit à bord de la classe affaire « plusieurs couples racés [] lis[ant] des magazines, d'un geste nonchalant. » (BO, 19) La lecture des journaux est présentée comme une activité grégaire, que les personnages adoptent par mimétisme en calquant parfois leur attitude sur celle des habitants du lieu. Dans La Télévision de Jean-Philippe Toussaint, le protagoniste observe d'abord les Berlinois s'adonnant à la lecture de quotidiens : « trois à quatre cents personnes, pour la plupart nues, prenaient le soleil allongées ou assises en tailleur, un mouchoir sur la tête, lisaient un journal à plat ventre » (TV, 60) avant de les imiter tant bien que mal : « [a]yant ainsi entrouvert ma chemise, mais gardé mes chaussures et mon chapeau, je commençai à lire paresseusement mon journal » (TV, 64-65). La lecture de la presse en vient à constituer une clé d'identification que les personnages finissent par adopter pour se conformer à l'image que l'on se fait d'un voyageur. Le narrateur de Zone ne dit pas autre chose, lorsqu'il évoque un séjour qu'il a effectué à Tanger : « je me suis assis au café Baba avec un journal pour me donner une contenance, [] touriste pour touriste autant aller jusqu'au bout » (ZO, 362). La lecture de magazines ou de journaux permet aussi de suggérer une certaine manière d'être au monde consistant à maintenir celui-ci à distance : les événements y sont perçus lointainement et offrent un arrière-plan vaguement distrayant. Cet usage touristique de la presse quotidienne est particulièrement savoureux lorsqu'il émane d'un romancier comme Olivier Rolin, dont L'Invention du monde303, son troisième et ambitieux roman, était précisément consacré à l'évocation d'une journée sur terre retracée à partir des informations tirées de quotidiens du monde entier. Cinq ans plus tard, le narrateur de Méroé présente la lecture des journaux comme l'une des seules occupations offertes aux résidents de l'hôtel des Solitaires : Que faire? La même chose que la veille , le lendemain et ainsi de suite. Traîner un peu dans la salle de la réception, où des corbeilles sur deux tables basses proposent des journaux L'irruption de nouvelles technologies occasionne un bouleversement qui voit la presse papier concurrencée voire supplantée par les supports numériques ; mais le phénomène est encore peu marqué dans la période étudiée. 303 Olivier Rolin, L'Invention du monde, Paris, Le Seuil, 1993. 302 142 abandonnés par des hôtes de passage. The Sun, America Today, Ta Nea, Il Giornale, The Economist, Le Monde, The Kenyan Nation. Aucun ne date de moins de quinze jours, certains ont deux mois ou plus. Leur collection hasardeuse livre du monde une image éclatée, décalée, pas moins exacte, au contraire, que celle que peut se former le rédacteur d'une agence de presse dont le visage penché sur l'écran reflète le scintillement blême des nouvelles défilant presque « en temps réel ». (ME, 61-62) L'énumération des titres de ces différents journaux dans leur langue d'origine redouble sur le plan des signifiants le cadre international dans lequel évoluent les touristes contemporains. Mais l'allusion intratextuelle à L'invention du monde – rapprochement implicite que ne peut manquer d'effectuer tout lecteur un tant soit peu familier de l'oeuvre d'Olivier Rolin – introduit facétieusement un double décalage, à la fois temporel (du fait de la péremption des numéros abandonnés par les voyageurs) et spatial (en raison du dépaysement induit par la lecture de ces journaux – pour la plupart occidentaux – dans un pays du tiers-monde). Si la lecture de journaux ou de magazines tient lieu de posture attendue de la part des touristes, rares sont les romanciers qui interrogent la nature exacte de ces lectures. Michel Houellebecq fait exception. « Que ce soient les guides, les romans de gare, ou les magazines féminins, le narrateur de Plateforme ne cesse de lire304 » constate Maud Granger Remy dans un article qu'elle consacre au roman Plateforme : cette appétence serait intrinsèquement liée à l'activité touristique, qui dépend de ces supports médiatiques qui la valorisent et qui la prolongent. D'où le constat formulé par Maud Granger Remy : « La seule position énonciative tenable dans le système touristique est celle qui se construit dans une constante médiatisation305. » Michel Houellebecq interroge cet interdépendance sous la forme d'une conversation entre Michel et Valérie. Ces deux personnages ent la lecture de magazine à une forme de conformisme social qu'ils s'efforcent de questionner : « Vous lisez Elle? demanda-t-elle un peu surprise, un peu goguenarde. – Euh fis-je. – Je peux? », elle s'installa à mes côtés. Avec aisance, en habituée, elle survola le magazine : un coup d'oeil sur les pages mode, un autre sur les pages du début. Elle a envie de lire, Elle a envie de sortir [] « Je ne comprends pas bien ce journal, poursuivit-elle sans s'interrompre. elles aux nouvelles tendances? Ce sont en général des femmes plutôt âgées. [] Économiquement, ça ne devrait pas être viable ; normalement, les choses sont faites pour satisfaire les goûts du client. (PL, 101-102) La lecture de magazine se trouve ici instrumentalisée à des fins littéraires : en dépit de son apparente gratuité, cette discussion s'inscrit dans la logique interne du récit et amorce un questionnement qui innervera l'ensemble du roman Plateforme. Si les médias se prêtent à une approche indirecte de la question du tourisme, c'est qu'ils partagent avec elle de nombreuses caractéristiques communes – à commencer par la recherche d'une clientèle à satisfaire et à fidéliser. En initiant un questionnement sur l'écart qui peut être observé entre les lectures des voyageurs et leurs attentes véritables, le romancier prépare le lecteur à l'idée selon laquelle l'offre touristique pourrait être elle-même en décalage par rapport aux attentes de ses adeptes – thèse qu'il s'emploiera à développer dans la suite du roman. 3.2 Lectures conjonctives : quand littérature et régions visitées interagissent
Les lectures des voyageurs ne sont pas toujours coupées des lieux qu'ils visitent. Il s'agit là d'un constat ancien dont Christine Montalbetti rend compte sur la base d'un corpus de récits de voyage rédigés au cours du XIXe siècle. Observant la fréquente mise en relation d'un espace géographique et d'un espace textuel, elle note que les textes cités ne ressortissent pas à n'importe quelle catégorie : « pour des raisons thématiques, certains genres fictionnels apparaissent plus souvent que d'autres : l'épopée, avec le paradigme d'Ulysse, et deux types romanesques, le roman picaresque, et le roman noir306. » Cette interaction entre lectures et régions parcourues est d'autant plus répandue aujourd'hui que le « tourisme littéraire » constitue une catégorie dûment répertoriée : à sa façon, l'activité touristique exploite la mémoire des écrivains et des artistes qui ont contribué à faire découvrir ou à rendre célèbre un lieu donné – phénomène que le roman contemporain laisse évidemment transparaître. Mais il le fait avec une grande liberté et selon des modalités souvent bien éloignées de celles qui étaient en usage au XIXe siècle. C'est qu'entre-temps le rapport entretenu avec les textes anciens a profondément évolué, comme le note Dominique Viart, [de nombreuses fictions critiques] sont [] dans un rapport majeur avec la littérature passée, fortement sollicitée non comme modèle mais comme interlocutrice et partenaire. 306 Christine Montalbetti, Le voyage, le monde et la bibliothèque, op. cit., p. 67. 144 C'est-à-dire que l'héritage littéraire n'est désormais plus reçu par les oeuvres qui le convo selon sa place dans l'Histoire de la Littérature, pas plus que comme exemple de la Littérature, avec majuscule, mais comme autant d'oeuvres singulières, indépendantes des ''mouvements'' ou des ''esthétiques'' dans lesquelles elles sont inscrites par les commentateurs institutionnels307. Cette observation vaut évidemment pour les lectures des voyageurs contemporains, dont l'interprétation doit être corrélée avec les lieux qu'ils visitent, et que nous qualifierons ici de lectures conjonctives. Le lien qu'elles impliquent entre livre et territoire parcouru, aussi accidentel puisse-t-il sembler, n'est jamais dépourvu d'implications romanesques. 3.2.1 Un réflexe partagé : la mise en relation d'un lieu avec ses lectures
Les romanciers contemporains montrent souvent la tentation qu'a le voyageur de confronter la région qu'il découvre aux représentations qu'il s'en était faites au préalable, en fonction des livres auxquels il a pu avoir accès. Cette aspiration peut se révéler décevante : dans La Carte et le Territoire, Michel Houellebecq fait d'Olga la représentante d'une catégorie de visiteurs étrangers prompts à se faire une idée préconçue du territoire français : « [Elle] faisait partie de ces Russes attachants qui ont appris au cours de leurs années de formation à admirer une certaine image de la France – galanterie, gastronomie, littérature et ainsi de suite – et se désolent ensuite régulièrement de ce que le pays réel corresponde si mal à leurs attentes. » (CT, 81) Bien des auteurs soulignent l'habitude qu'a le voyageur contemporain de prendre avec lui des romans liés à la région qu'il va découvrir. Certains romanciers s'en amusent, qui voient leurs oeuvres ainsi converties en matériel de voyage : lorsque Nicole Caligaris évoque dans Barnum des ombres les préparatifs de son personnage en route pour l'Arctique, elle indique qu'il emporte avec lui tous les cadeaux qui lui ont été offerts : « Je m'en allais chez les Lapons chargé d'un bataclan d'opérette. » (BO, 135) Or parmi ces derniers figure « un livre de Jean Echenoz Je m'en vais » (BO, 135). La référence ne met pas seulement en lumière la manière dont les voyageurs contemporains cultivés s'entourent de lectures ayant trait au lieu visité – y compris parmi les productions les plus contemporaines. La formulation choisie s' e à un clin d'oeil au lecteur : de « Je m'en allais » (Nicole Caligaris) à Je m'en vais (Jean Echenoz), le texte assume une forme de circularité. 307 Dominique Viart, « Le moment critique de la littérature : comment penser la littérature contemporaine? », in Bruno Blanckeman et Jean-Christophe Millois, Le Roman Français d'aujourd'hui : transformations, perceptions, mythologies, Paris, Prétexte, 2004., p. 30. Chez Pascal Quignard aussi la lecture semble directement corrélée au territoire que découvre son héroïne. L'ouvrage qu'elle parcourt en Italie est d'autant plus lié à l'histoire du lieu qu'il est présenté peu après comme « un livre qu'elle avait emprunté à la bibliothèque de l'hôtel et qui racontait l'histoire de l'île dont elle s'était éprise. » (VA, 127) Mais à la différence de Nicole Caligaris, cet opus ne relève pas du genre romanesque. Le romancier recourt d'ailleurs à un dispositif narratif retors, qui insère un résumé de l'ouvrage qu'elle parcourt tout en différant l'évocation du genre auquel il appartient. Celui-ci n'est mentionné qu'a posteriori : Elle lisait : L'empereur Auguste, qui n'aimait pas les êtres humains, tomba amoureux d'un lieu. Il échangea l'île d'Ischia contre Capri quand il en découvrit la force dans la brume. Kaproi, l'île aux sangliers, appartenait jusque-là à la municipalité grecque de Naples. Plus tard l'empereur Tibère en fit sa résidence sauvage aux douze palais zodiacaux (comme les Valois élurent la Loire). Ann Hidden reposa le guide touristique sur le sable. (VA, 127) On ne s'étonnera pas de voir Olivier Rolin porter une attention particulière à la façon dont un livre entre en résonance avec un territoire. Toute son oeuvre témoigne en effet de l'intérêt qu'il porte aux lieux dans lesquels les auteurs qu'il apprécie ont vécu. Non seulement ses romans sont nourris de nombreuses allusions aux endroits où ont habité ces écrivains, mais il a publié en 1999 une série de récits évoquant le lieu de naissance de cinq auteur venus au monde un siècle plus tôt (Hemingway, Nabokov, Borges, Michaux et Kawabata). Ce livre est paru sous le titre Paysages originels308. À travers une divagation à la fois géographique et littéraire inspirée des endroits qu'il visite et des textes qu'il relit, Rolin questionne le rapport que l'oeuvre de ces auteurs entretient avec les lieux où ils ont vécu leurs premières années. Cet intérêt s'observe également, quoique de manière diffractée, dans son oeuvre romanesque. Dans Suite à l'hôtel Crystal, les lectures du voyageur sont parfois inspirées des hôtels dans lesquels il réside. Dans le chapitre 23, le narrateur séjourne dans un établissement situé à Montélimar. 146 Napoléon – l'une des premières routes touristiques aménagée en France309. Le voyageur y relève les marques laissées par l'histoire : « De chaque côté du porche, un aigle de pierre rappelle le passage ici de Napoléon, lors de sa calamiteuse descente vers l'île d'Elbe. » (SHC, 122) Le sérieux de cette lecture contribue cependant à créer un effet comique – elle est contrariée par d'improbables appels téléphoniques émanant de hauts dirigeants de la finance internationale qui donnent à ce chapitre une tonalité bouffonne. Mais la référence aux Mémoires permet aussi de mettre en relation la petite histoire – celle du lieu où le personnage réside – avec la grande Histoire – celle de Napoléon lui-même. Comme le suggère la citation du Chateaubriand, l'hôtel rappelle au personnage les lieux où l'empereur déchu médita son infortune : « ''Le héros réduit à des déguisements et à des larmes, pleurant sous une veste de courrier dans une arrière-chambre d'auberge! []'' » (SHC, 123). Ce réflexe comparatiste assimile le narrateur à un érudit se démarquant clairement de la figure du touriste lambda. Cet intérêt pour l'Histoire est également observable dans Bakou, derniers jours où Olivier Rolin inscrit délibérément ses pas dans ceux d'un auteur qui l'y a précédé. Il s'agit d'un écrivain dont le livre a été publié à titre posthume ; l'évocation de cet ouvrage permet à Rolin de souligner ce que cette lecture conjonctive, parce qu'elle permet au voyageur de revivre a posteriori une expérience déjà vécue par d'autres, peut avoir d'exaltant : Je tire ces détails des carnets de Reginald Teague-Jones, publiés après sa mort sous le titre The Spy Who Disappeared. Je lis ce bouquin passionnant dans ma chambre du Turkmenbashi Hotel, à la sortie de la ville vers la raffinerie. 147 dans Suite à l'hôtel Crystal : sa volonté d'associer la lecture aux lieux qu'elle visite prend chez elle une dimension véritablement obsessionnelle et hautement romanesque, qui se décline au plan stylistique par l'entremêlement de références littéraires et de noms de grands hôtels : Mélanie Melbourne avait tenu à ce que je l'emmène à Alexandrie, et à ce que nous descendions au Cecil, car elle venait de se plonger dans la lecture du Quatuor de Durrell. Or elle avait la manie, poétique mais assez coûteuse, à la longue, de ne lire les oeuvres que dans un lieu qu'elles évoquaient, les Jeunes Filles en fleurs au Grand Hôtel de Cabourg, le Journal intime de A. O. Barnabooth entre le Carlton de Florence et l'Evropeiskaïa de SaintPétersbourg, Conrad au Raffles de Singapour, etc. (SHC, 128) La manière dont le protagoniste déplore ce comportement monomaniaque relève évidemment d'une intention comique. Le lecteur ne peut manquer de sourire devant la propension qu'a le personnage à pathologiser le comportement de sa compagne : « Mélanie Melbourne a été la femme de ma vie, mais je pense qu'elle était toquée » (SHC, 128). Il est en effet tentant de mettre cette assertion sur le compte de la rancoeur (c'est le narrateur qui fait les frais – au propre comme au figuré – de cette dispendieuse manie). Mais la mauvaise foi de l'auteur peut également prêter à sourire, lui qui – à l'instar de Mélanie Melbourne – n'aime rien tant que relier les régions qu'il parcourt avec les auteurs qu'il apprécie. Mathias Énard se montre tout aussi attentif à la manière dont les lectures des touristes interagissent avec leurs voyages. Dans Zone, le narrateur rapporte plusieurs excursions v es aux côtés de l'une ou l'autre de ses ex-compagnes. Évoquant ses vacances près de Valence, il dresse le portrait de Stéphanie, jeune femme érudite, « proustienne le matin célinienne le soir » (ZO, 360) qui pratique le tourisme sans jamais se départir de sa soif de connaissance : « avec ses lunettes de soleil qu'elle utilisait comme un serre-tête pour retenir ses cheveux sombres, elle était calme, entièrement présente au monde, armée de Proust de Céline et de ses convictions soutenues par une grande culture » (ZO, 275). Ses lectures influent sur ses recherches : à Barcelone où Jean Genet a vécu, elle cherche les traces de l'existence de l'écrivain. Le narrateur semble récuser le bien-fondé de cette attitude ; lui-même avoue à plusieurs reprises sacrifier à une forme de tourisme littéraire, mais cette quête conduit à chaque fois à une impasse. À Tanger, il essaie d'associer le souvenir de William S. Burroughs aux lieux qu'il visite ; cette tentative se manifeste sous la forme de phrases qui conjoignent l'évocation du lieu à la présence fantomatique de l'écrivain : à Tanger j'avais cherché la pension-bordel où logeait Burroughs le télépathe visionnaire (ZO, 362) 148 à Tanger j'errais dans les ruelles de la Médina ou au bord de la mer, entre Atlantique et Méditerranée, hanté par Burroughs la drogue et la mort (ZO, 364) Cette entreprise apparaît bien souvent décevante. D'abord parce qu'elle ne s'étend pas à d'autres auteurs qui sont pourtant familiers du narrateur : « ni Tennessee Williams ne m'inspirait, ni Bowles le buveur de thé » (ZO, 362) ou parce qu'il est découragé par les distances à parcourir : « la tombe de Genet était à Larache assez loin de là ». Ensuite parce que ses tentatives réitérées de lire Burroughs in situ se soldent à chaque fois par un échec : « j'avais essayé de lire Le Festin nu, sans succès, à part quelques pages au hasard » (ZO, 362) ; « je tuais le temps en feuilletant Le Festin nu sans y comprendre goutte » (ZO, 364). D'ailleurs, le personnage peine à assumer les motivations littéraires de son séjour ; devant un écrivain qui lui demande les raisons de sa présence, il échoue à donner une réponse plausible : « j'étais bien en peine de lui répondre, qu' -ce que j'aurais pu dire, je suis venu parce que Burroughs a tué sa femme, ou un truc du genre, ça ne tenait pas debout » (ZO, 365). 3.2.2 Quand l'industrie touristique exploite la littérature
Les romanciers contemporains sont d'autant moins indifférents à la propension qu'a le tourisme à capter l'héritage littéraire à son profit qu'ils en sont les témoins les plus avertis. Suite à l'hôtel Crystal en porte lui-même la trace : bien qu'il prenne la forme d'un roman, l'ouvrage se nourrit du souvenir qu'ont laissé chez l'auteur tous les hôtels dans lesquels il a pu séjourner ; or l'écrivain porte une très grande attention à la mémoire de lieux qui ont parfois abrité de grands auteurs. Ainsi en va-t-il du « Grand Hôtel et des Palmes, via Roma à Palerme, où est mort Raymond Roussel » (SHC, 228) ; la gravité des circonstances évoquées – le décès de l'écrivain – est contrebalancée par une anecdote comique : cet hôtel est aussi celui où le narrateur a « entendu dans une chambre voisine, toute une nuit, le ronflement effarant de 149 l'homme-rhinocéros » (SHC, 228). L'image est sans doute moins gratuite qu'il y paraît : la métaphore de l'homme-rhinocéros peut en effet être lue comme un discret hommage à l'auteur d'Impressions d'Afrique310. Dans La Carte et le Territoire, le rendez-vous que se donnent Jed et Frédéric Beigbeder est situé au Café de Flore, ce qui permet à Michel Houellebecq de faire précéder le récit de cette rencontre d'une rapide description des lieux révélant comment les plus prestigieux des établissements du monde des lettres savent mettre à profit la notoriété de leurs hôtes à des fins explicitement touristiques : Jed [] aperçut tout de suite l'écrivain à une table du fond. Autour de lui tables voisines étaient inoccupées, formant une espèce de périmètre de sécurité d'un rayon de deux mètres. Des provinciaux pénétrant dans le café, et même certains touristes, se poussaient du coude en le montrant du doigt avec ravissement. Parfois un familier, pénétrant à l'intérieur du périmètre, l'embrassait avant de s'éclipser. Il y avait certes là un léger manque à gagner pour l'établissement (de même, l'illustre Philippe Sollers avait paraît-il de son vivant une table réservée à la Closerie des Lilas, qui ne pouvait être occupée par personne d'autre, qu'il décide ou non de venir y déjeuner). Cette minime perte de recettes était largement compensée par l'attraction touristique que représentait pour le café la présence régulière, attestable, de l'auteur de 99 francs – présence pleinement conforme, en outre, à la vocation historique de l'établissement. 150 l'entendons aujourd'hui – à l'exploitation commerciale dont il fait à présent l'objet : « Joyce avait été heureux à Trieste, dans les bordels de la vieille ville, les bordels et les rades disparus, aujourd'hui l'Irlandais du continent y est une valeur touristique comme une autre, comme Italo Svevo ou Umberto Saba » (ZO, 425). La tentation de la muséification des écrivains et de leur exploitation touristique est assimilée à une forme de pétrification au sens propre comme au sens figuré, puisque l'écrivain observe qu'« on leur érige des statues dans les rues qu'ils fréquentaient » (ZO, 425). Mathias Énard développe une anecdote dans laquelle lesdites statues sont comiquement assimilées à une mesquine entreprise de réduction de nos contemporains à l'égard de leurs illustres prédécesseurs : Rolf Cavriani tirait son chapeau à Joyce à Svevo à Saba dès qu'il les croisait ainsi pétrifiés par Méduse la Gorgone décapitée, au détour d'une ruelle, entre deux magasins, devant la bibliothèque municipale, et d'ignorer si ces bronzes sont à l'échelle mais ils vous arrivent tous à l'épaule, couvre-chef compris, ce qui faisait dire à Rolf en riant que pour être célèbre à Trieste il fallait être petit, que les habitants d'aujourd'hui ne supportaient pas la grandeur leur grandeur passée et étrangère, et rapetissaient donc les grands hommes dans le but inavoué de les dépasser de quelques centimètres, comme un complexé met des talonnettes (ZO, 425-426) Pour anecdotique qu'il puisse paraître, l'épisode trahit de la part de Mathias Énard une forme de scepticisme à l'égard de la manière dont on entend célébrer la mémoire des hommes 3.3 Lectures disjonctives : la littérature comme barrière ou comme refuge?
À rebours des réflexes acquis par les voyageurs érudits choisissant avec soin leurs livres en fonction des territoires qu'ils doivent parcourir, un grand nombre des personnages-touristes que le roman contemporain met en scène, qui ne sont pas des figures de grands lecteurs, s'adonnent à des lectures apparemment gratuites, ou qui du moins se signalent par leur disjonction manifeste avec les régions visitées. D'une certaine manière, ces lectures hors-sols font partie de la bulle touristique en offrant au lecteur décontenancé par un environnement inhabituel une forme d'extra-territorialité rassurante. Mais si l'écrivain peut se contenter de Le fait est attesté jusque sur les lieux même de la naissance de l'écrivain, comme le note Rachid Amirou dans un ouvrage paru pour la première fois en 1995 : « Un récent séjour à Dublin m'a apporté une autre confirmation. Des circuits sont proposés, selon les événements marquants des pérégrinations du héros du roman, Ulysse, de J. Joyce. » (Rachid Amirou, L'imaginaire touristique, op. cit., p. 109). 311 151 montrer cet état de fait, il peut aussi en faire un (en)jeu scriptural : il n'est pas rare que ces références interfèrent malgré tout avec la fiction romanesque en général et avec le voyage qu'effectue le touriste en particulier, contribuant à le renouveler par des effets de télescopage ou d'hybridation : elles permettent parfois de remotiver le voyage en présentant un nouveau territoire sous un jour inattendu. 3.3.1 Des lectures « touristiques »?
Chez Michel Houellebecq, les lectures pratiquées par les touristes apparaissent bien souvent coupées des régions qu'ils visitent. Ces références semblent destinées à permettre au romancier d'apporter un commentaire caustique sur la production littéraire de grande diffusion, perçue comme étant celle que sont censés lire les touristes312. Ainsi voit-on le protagoniste de Plateforme s'adonner à la lecture de deux best-sellers américains dont le narrateur déplore le caractère à la fois prévisible et déceptif. Le premier d'entre eux s'intitule La firme de John Grisham ; le second, attribué à David G. Balducci [sic] a pour titre Total Control313. D'emblée le critère d'élection retenu par le narrateur interroge en raison de l'équivalence – nécessairement discutable, voire provocatrice – qu'il semble établir entre chiffre de vente et qualité intrinsèque de l'ouvrage : La Firme est « un best-seller américain, un des meilleurs ; un des plus vendus, s'entend. » (PL, 58) Le mot best-seller est ici à prendre au pied de la lettre. Les deux ouvrages se caractérisent par leur interchangeabilité, comme en témoigne le bref aperçu qu'en donne Michel Houellebecq : le passage de l'un à l'autre de ces deux résumés relève de la logique de la variation – ou plutôt de la surenchère : dans l'un « [l]e héros était un jeune avocat plein d'avenir, brillant et beau garçon, qui travaillait quatre-vingt-dix heures par semaine » (PL, 58) ; dans l'autre, « [l]e héros n'était pas cette fois un avocat mais un jeune informaticien surdoué, il travaillait cent dix heures par semaine. Sa femme, par contre, était avocate et travaillait quatrevingt-dix heures par semaine » (PL, 97). Le livre est si profondément déconsidéré qu'il apparaît comme un sous-produit du cinéma américain : « non seulement cette merde était préscénarisée jusqu'à l'obscène, mais on sentait que l'auteur avait déjà pensé au casting, c'était manifestement La production éditoriale, à l'instar du secteur touristique, se montre très attentive aux effets de saisonnalité. Du fait du temps libre dont disposent les vacanciers, la saison estivale est une période particulièrement convoitée. Elle voit fleurir ses « romans de l'été » et autres lectures estivales souvent soigneusement calibrées en fonction des différents publics visés.
313 Le premier a été
publi
é en
1991 aux
États-
Unis sous le titre
Random
house
, et dans sa version française
l'
année suivant
e
(
John
Gris
ham, La firme,
trad
. de l'américain par Patrick Berthon, Paris, Éditions Robert Laffont, 1992) ; le second (le nom exact de l'auteur est David Baldacci) a été publié aux États-Unis et en France en 1997 (David Baldacci, Une femme sous contrôle, trad. de l'anglais par Marie-France Girod, Paris, Flammarion, 1997). 312 152 un rôle écrit pour Tom Cruise. » (PL, 58)314 Quant aux enjeux du roman, pour le moins modestes, ils sont ainsi perçus par le narrateur : Il s'agissait d'un récit à suspense, enfin un suspense modéré : dès le deuxième chapitre il était clair que les dirigeants de la firme étaient des salauds, et il n'était pas question que le héros meure à la fin ; non plus que sa femme, d'ailleurs. Seulement, dans l'intervalle, pour montrer qu'il ne plaisantait pas, le romancier allait sacrifier quelques sympathiques personnages de second plan ; restait à savoir lesquels, ça pouvait justifier une lecture. (PL, 59) Le mode de lecture auquel recourt le personnage apparaît lui-même assez significatif, qui prend ostensiblement le contre-pied de l'attention scrupuleuse qu'un lecteur vigilant est supposé porter à la lecture d'une oeuvre littéraire : « Je repris avec résignation La Firme, sautai deux cents pages, revins en arrière de cinquante ; par hasard, je tombai sur une scène de cul. » (PL, 95) Il résulte de cette attention flottante une compréhension nécessairement aléatoire de l'intrigue : « Tom Cruise se trouvait maintenant dans les îles Caïmans, en train de mettre au point je ne sais quel dispositif d'évasion fiscale – ou de le dénoncer, ce n'était pas clair. » (PL, 95) L'usage masturbatoire que finit par faire le personnage du roman parachève déconstruction symbolique de l'objet-livre, trivialement ravalé à la satisfaction d'un besoin physiologique, jusqu'à s'en trouver entaché dans sa matérialité même : « J'éjaculai avec un soupir de satisfaction entre deux pages. Ça allait coller ; bon, ce n'était pas un livre à lire deux fois. » (PL, 96) Le sort réservé au second livre apparaît tout aussi provocateur : évoquant « l'atmosphère [] littéralement empuantie » dont il y est question, le protagoniste s'en débarrasse à ma manière d'un résidu excrémentiel : « Je fis un petit trou dans le sable afin d'y enfouir les deux ouvrages » (PL, 97). Le lecteur ne peut manquer d'être heurté par la radicalité de ce double geste iconoclaste et sacrilège. 153 consensuelles. On peut y voir aussi l'expression d'un mépris vengeur à l'égard d'une littérature présumée facile : au roman de gare du XIXe siècle aurait succédé une littérature « touristique » que se plairait à malmener l'auteur, et que caractériserait la pauvreté de ses enjeux et son faible degré de littérarité315. Michel Houellebecq montre aussi comment les lectures peuvent s'échanger entre voyageurs. Valérie, qui ne deviendra la compagne du narrateur que dans la seconde partie du roman, lui remet elle-même un roman : « ''[] J'ai un livre pour vous'' poursuivit-elle en le sortant de son sac. Je reconnus avec surprise la couverture jaune du Masque, et un titre d'Agatha Christie, Le vallon. » (PL, 102) La perplexité avec laquelle le protagoniste accueille ce présent – « Agatha Christie? fis-je avec hébétude » (PL, 102) – n'en conduit pas moins à de longs développements entrecoupés de nombreuses citations. Tout porte à penser que le prêt consenti par Valérie constitue une forme de prétexte visant à insérer une référence intertextuelle qui prolonge et éclaire le propos du roman Plateforme : comment ne pas voir ce qui rapproche la souffrance et la difficulté à communiquer qu'éprouvent les personnages d'Agatha Christie de ceux de Michel Houellebecq? Oui, pensa Midge, c'est ça, le désespoir. Quelque chose de glacial, un froid et une solitude infinis. Elle n'avait jamais compris jusqu'à présent que le désespoir était froid ; elle l'avait toujours imaginé brûlant, véhément, violent. Mais non. Voilà ce que c'était, le désespoir : un abîme sans fond d'obscurité glacée, de solitude intolérable. Et le péché de désespoir, dont parlaient les prêtres, était un péché froid, qui consistait à se couper de tout contact humain, chaleureux et vivant. (PL, 105) On voit par là comment le contexte touristique se prête à l'insertion de références intertextuelles : le cadeau fait au voyageur est modalisé par le contexte diégétique (le protagoniste est lui-même en proie à la solitude et à la tentation du repli sur soi), par la personnalité de celui qui donne (Valérie voudrait l'aider) comme de celui qui reçoit (Michel s'attache à ces lignes en particulier) ; ce livre offert donne à voir quelque chose des échanges susceptibles de s'établir entre les touristes – lesquels sont susceptibles d'ouvrir des horizons inattendus à ceux qui les reçoivent, et indirectement au lecteur lui-même. Il n'est pas interdit non plus de s'interroger sur la manière dont ces lectures interfèrent avec le propos de Plateforme – l'entreprise touristique pour laquelle travaille la compagne du narrateur est aussi à sa façon une firme, et le Total control est sans doute ce qui finit par faire défaut aux personnages principaux.
3.3.2 Faire avec : ces lectures que n'avaient pas anticipées les voyageurs
Le voyage s'apparente parfois à une expérience de la frustration : le touriste imprévoyant se trouve parfois obligé de s'en remettre aux livres qu'il trouve dans la région dans laquelle il séjourne. Cette expérience du manque, plus ou moins bien acceptée, fait entrer dans l'univers romanesque une part d'accident – procédé dont se jouent souvent les romanciers pour déjouer la prévisibilité du voyage et le nourrir de références parfois incongrues. Incidemment, le touriste renoue alors avec un geste autrefois familier des voyageurs érudits qu'évoque Christine Montalbetti, qui consiste à nourrir son récit de la lecture de livres rencontrés au cours de sa pérégrination. La bibliothèque devient un « objet de l'expérience du voyage » lorsqu'« elle participe des réalités autochtones : bibliothèque privée de l'hôte, bibliothèques publiques, offrent des occasions de lire sur place tout ce qui aurait pu faire figure d'intertexte plaqué, et se voient conférer ainsi le double statut de lieu du discours de savoir et d'objet littéral de l'expérience316 ». Mais en contexte touristique, ces lectures se signalent le plus souvent par leur caractère disjonctif : parce qu'elles sont la plupart du temps dépourvues de liens avec les régions que le voyageur visite, elles tendent davantage à l'en éloigner plutôt qu'à l'en rapprocher. Dans Les Grandes Blondes de Echenoz, l'héroïne en vacances en Inde compose son programme de lecture à partir de livres qu'elle emprunte sur place ; il en résulte une énumération rendue comique par son caractère disparate et quelque peu improbable : « des ouvrages encyclopédiques, récits de voyage, manuels d'histoire naturelle, études de moeurs ou traités plus spéciaux publiés chez Thacker, Spink & Co (Calcutta) tels qu'Animaux sans importance ou Chiens pour climats chauds. » (LGB, 135) Ces rencontres « accidentelles » avec les ressources d'un lieu donné offrent parfois l'occasion de méditer sur la situation présente de la littérature à l'étranger, et en particulier de la littérature française. La Bible fait également partie de ces références que sont amenés à côtoyer les touristes, notamment dans les régions anglophones. Olivier Rolin en signale souvent la présence : dans Suite à l'hôtel Crystal, il signale à Tokyo la présence dans un tiroir de sa chambre d'hôtel de deux livres : « The Teaching of Buddha et New Testament » (SHC, 185), tandis que le chapitre consacré à Nancy est écrit sur quelques feuillets détachés d'un texte biblique : « Texte manuscrit sur les pages de garde arrachées de Das Neue Testament / Le Nouveau Testament / The New Testament / Internationale Gideonbund/ (association internationale des Gédéons/ The Gideons International). » (SHC, 177). Jean Echenoz suggère indirectement leur omniprésence en s'étonnant qu'elle fasse défaut dans l'hôtel qui lui tient lieu de purgatoire au protagoniste dans Au Piano : nulle « Bible Gédéons dans le tiroir de la table de nuit » (AP, 92). Dans Faire l'amour, Jean-Philippe Toussaint met en scène un personnage qui en découvre une dans sa chambre d'hôtel. Il s'emploie à souligner ce que cette rencontre entre un texte sacré et un voyageur saisi dans son intimité peut avoir d'improbable : « J'étais toujours en caleçon, assis au bord du lit, et je feuilletais une Bible en anglais reliée en cuir bleu, que j'avais trouvée dans le tiroir de la table de nuit. Je ne lisais pas vraiment, je tournais les pages, regardais les têtes de chapitre, l'intitulé des épîtres. Je refermai distraitement le volume (je n'avais pas l'esprit très clair) » (FA, 104-105). Cet épisode gagne sans doute à être rapproché de La Salle de bain, le premier roman de Jean-Philippe Toussaint, dans lequel le personnage principal lisait Les Pensées Pascal dans leur version anglaise, plusieurs fois citées dans le corps du roman ; il en résultait une singulière impression de dépaysement. Mais dans Faire l'amour, l'allusion à cette lecture disjonctive interagit avec la diégèse et à ce titre participe pleinement de l'écriture du roman. Elle explicite la situation du protagoniste qui, confronté à l'épreuve de la séparation amoureuse, ne semble guère disposé à entrer dans un livre qu'il n'a pas choisi. Sans doute viset-elle aussi à suggérer que les secours de la religion lui apparaissent vains ; toujours est-il que la confrontation au texte tourne court. 3.3.3 La littérature comme refuge
Parfois, la référence proposée vise à susciter l'écart maximum avec l'univers dans lequel évolue le personnage ; la lecture s'apparente alors bien souvent à une fuite. Ainsi le narrateur de Méroé d'Olivier Rolin, exilé au Soudan, semble-t-il chercher refuge dans des lectures parfois bien éloignées du pays dans lequel il réside : il s'adonne à « la lecture de L'Encyclopédie du XXe siècle, au hasard sous les ventilateurs. » (ME, 155) Oreille rouge quant à lui, le personnage éponyme du roman d'Éric Chevillard, se livre à une lecture tout aussi improbable sur les bords du fleuve Niger : « Dehors l'Afrique! Il ne sort plus. Allongé sur son lit, il lit lui aussi. Il lit Le Député d'Arcis, de Balzac. » (OR, 97). La lecture à laquelle il s'adonne est assimilée à la quête 156 d'un refuge, ce qui suggère indirectement l'échec du voyage, sa faillite ; d'où le commentaire acerbe du narrateur : « Il est pathétique » (OR, 97)317. Même sentiment de disjonction radicale à la fin de la partie II, quand s'achève le récit de son périple en Afrique : Oreille rouge prend un livre dont seul le contenu nous est succinctement rapporté : « Kafka hésite à épouser F. Il écrit au père de celle-ci une longue lettre argumentative []. Oreille rouge lit cette lettre à Mopti, dans une chambre fraîche et misérable » (OR, 143). Chacune de ces références renforce à sa façon une logique interne propre au roman (nous y reviendrons) ; mais elles tendent aussi à souligner ce qui éloigne l'horizon culturel du personnage du pays qu'il entreprend de visiter. Pratiquer l 'art du décalage Il en va souvent de même chez Jean-Philippe Toussaint : les livres lus par ses personnages se singularisent par leur improbable réinscription dans un contexte touristique. Dans La Télévision, ce décalage signale souvent une intention bouffonne ; aussi le voit-on émettre une hypothèse pour le moins fantasque au moment où il doit aider son voisin allemand à décharger ses lourds bagages à son retour de vacances : « il avait dû relire Les Thibault cet été » (TV, 178). Il arrive aussi que ce décalage renseigne sur les préoccupations du narrateur – un chercheur français qui séjourne à Berlin : c'est après s'être baigné nu dans un parc berlinois que le protagoniste se plonge dans la lecture d'un romantique français du XIXe siècle ; une même phrase conjoint comiquement l'évocation de la sortie de bain et la référence littéraire : « J'achevai de me sécher les mains à mon caleçon et je pris mon livre, le troisième tome des OEuvres complètes de Musset. » (TV, 76) Le romancier, très conscient de ce que ce mélange peut avoir d'incongru, travaille à l'approfondir – même lorsque les préoccupations érudites semblent prendre le pas sur les considérations physiologiques : « ne ratant pas une note, je me reportais en fin de volume pour prendre connaissance de son contenu, et ce n'est qu'à la fin de cette lecture que, toujours assis là en tailleur sur la pelouse du parc de Halensee, je me rendis compte, en posant délicatement la main sur mon épaule, que j'avais attrapé un coup de soleil. » (TV, 87-88) L'épisode donne lieu à un long développement qui fait entendre, par le recours au discours indirect libre, l'isotopie de la controverse scientifique. Celle-ci, attestée par la confrontation de points de vue antagonistes nourris de références précises, va crescendo jusqu'à l'irruption de phrases exclamatives qui suggèrent toute la passion qui anime son personnage, jusqu'à occulter le contexte estival dans lequel il évolue : Le choix de Balzac ne doit rien au hasard : il incarne l'origine le roman d'inspiration réaliste dont le lectorat est friand et que l'auteur aime à prendre pour cible, allant jusqu'à suggérer aux éditeurs faire apparaître en couverture la mention « bon vieux roman » (Éric Chevillard, « Portrait craché du romancier en administrateur des Affaire courantes » in Laurent Zimmermann (dir.), L'aujourd'hui du roman, Nantes, Éditions Cécile Defaut, 2005). 157 sur l'épineuse petite question du nom qu'il convenait de donner à Titien, il me semblait que les auteurs de l'édition de la Pléiade n'avaient pas véritablement tranché et avaient adopté dans leurs notes une solution médiane, et plutôt timorée, qui consistait à ne pas désavouer Musset dans une édition consacrée à ses oeuvres, en choisissant, d'une manière générale, quand ils ne l'appelaient pas Tiziano Vecellio (page 1129, note 7), d'appeler Titien le Titien. 158 serait parasitée par le territoire géographique que parcourt le touriste, c'est le texte qui marque de son empreinte le lieu qu'il visite. Ce retournement de perspective est observable dans le chapitre 43319 de Suite à l'hôtel Crystal où le protagoniste récapitule tous les hôtels où il est censé avoir dormi : Terrace Hotel, sur Jalan Tasek Lama à Bandar Seri Begawan, où j'ai lu Michaux et fait trois cauchemars (SHC, 228) Cleopatra Hotel à Bir Safaga sur la mer Rouge, où j'ai lu le Coran (SHC, 231) Hôtel Chari à N'Djamena, j'y ai lu le Journal de Gombrowicz (SHC, 231) Hormis le Coran lu en Égypte, les références évoquées ici se signalent par leur caractère radicalement disjonctif : rien ne semble relier Michaux au sultanat de Brunei, pas plus que Gombrowicz ne semble avoir partie liée avec le Tchad. À leur façon, ces lectures témoignent d'une forme de gratuité parfaitement assumée. 3.3.4 L'encombrant bagage de la culture occidentale
L'emprise de la lecture ne saurait être réduite aux ouvrages que lisent les voyageurs en territoire étranger : elle se manifeste aussi, de manière plus diffuse, à travers les références livresques qui leur viennent (ou pas) à l'esprit. Les fréquentes allusions aux lectures passées permettent de définir l'horizon culturel du touriste – souvent bien éloigné de celui du voyageur érudit tel qu'on le concevait autrefois. Ces souvenirs de lecture ont généralement un caractère disjonctif, et contribuent à souligner le décalage que peut éprouver le voyageur contemporain au contact d'une réalité qui lui est étrangère ; par son travail d'écriture, le romancier s'emploie souvent à souligner cette disjonction. Cet arrière-plan culturel prend parfois une coloration mainstream qui tend à conforter la représentation stéréotypée que l'on se fait du touriste. Michel Houellebecq en rend compte dans Plateforme, dont les personnages en voyage peinent à se départir de repères issus du cinéma ou de la bande dessinée grand public, même s'ils sont perçus négativement : en son for intérieur, Josiane qualifie Josette et René de « bidochons » (PL, 56) tandis que Jean-Yves tire ses repères du cinéma grand public : « je n'aurais jamais cru que j'en arriverais un jour à éprouver de la nostalgie par rapport à l'époque des Bronzés. » (PL, 232) Ce fonds commun culturel se nourrit également du souvenir des connaissances scolaires : dans Zone de Mathias Ce nombre ne doit rien au hasard ; d'ailleurs le roman comporte lui-même 43 chambres. Comme le rappelle Anne Roche, « on sait que le chiffre 43, pour Perec, c'est l'année de la disparition de sa mère » (Anne Roche, « Lig occupées », art. cit., pp. 17-28). Énard, le voyage vers Rome inspire naturellement au protagoniste une variation sur un poème étudié à l'école : « plus mon Loire gaulois que le Tibre latin, les vers de Du Bellay appris par coeur au collège, heureux qui comme Ulysse et ainsi de suite, j'ai mes Regrets moi aussi » (ZO, 23-24) Éric Chevillard comme Olivier Rolin s'emploient à souligner l'étendue de cet écart culturel qu'éprouve le voyageur contemporain en territoire étranger. Dans Oreille rouge, le romancier entreprend de montrer comment ces connaissances, lorsqu'elles sont trop envahissantes, hypothèquent la compréhension du territoire visité. 320 « La vie est là » (OR, 8). « Jules Laforgue par exemple s'en fût réjoui. C'est à lui seul pourtant qu'il incombe de chanter ce miracle. A lui l'aubaine de ce poème inédit. » (OR, 138). L'allusion à Jules Laforgue est l'auteur d'un recueil de poèmes intitulé L'Imitation de Notre-Dame de la Lune (Jules Laforgue, Les Complaintes ; L'Imitation de Notre-Dame de la Lune, Paris, Imprimerie nationale, 1981 [1896]. 322 « La grenouille ne risquait pas de se faire aussi grosse que le boeuf » (OR, 121). 323 « Et toi Amérique, Toi et ta descendance à la progression vertigineuse, [] Toi l'Union englobant, fusionnant, absorbant, tolérant tout, Toi, éternellement, sois mon poème. » (Walt Whitman, « Chanson de l'exposition », Leaves of Grass, Paris, Folio Gallimard, [1855-1891], p. 286). 321 160 Afrique, dit-il. Et l'on croit que c'est enfin son chant qui commence. Afrique, Afrique. Comme il empoigne son sujet! Comme il le nomme! Il y a là un rythme qui s'ébauche, entendez-vous, dans le redoublement de l'apostrophe : Afrique! Afrique! [] Afrique! Viens dans mon poème! (OR 54-55) La référence à Whitman peut surprendre venant d'Oreille rouge. Mais l'un et l'autre incarnent à leur manière la prétention qu'a l'Occident à s'approprier de grands espaces pour en faire la matière première d'une oeuvre poétique. Le pastiche, que signale aussi bien le recours à l'anaphore que l'apostrophe faisant de l'Afrique (ou de l'Amérique) l'interlocutrice du poète, trahit l'incapacité du personnage à se défaire de références occidentales : il entre une dimension parodique dans le recours à un lyrisme aujourd'hui daté, que Chevillard tourne en dérision324. Le narrateur de Méroé d'Olivier Rolin, exilé au Soudan, envisage avec un même scepticisme le profit qu'il peut tirer de ces connaissances occidentales. Celles-ci prennent chez lui la forme de réminiscences involontaires et souvent dérisoires qui viennent le visiter jusque dans sa salle de bain : « des songeries zoologico-historiques clignotent dans ma tête cependant que la douche postillonne sur mon corps. Les oies du Capitole. Le cheval de Troie. Marmonnements muets. » (ME, 68) Ces références européennes sont parfois suscitées par la géographie soudanaise, mis elles n'en demeurent pas moins incongrues et quelque peu risibles aux yeux du personnage : « Ce paysage déglingué me rappelait la Loire de mon enfance, et une phrase un peu enflée du Rivage des Syrtes que mon père, grand admirateur de Gracq comme beaucoup d'instituteurs de ce temps-là, et à plus forte raison de cette province-là, aimait à me réciter, index dressé pour me manifester qu'il s'agissait de littérature c'est-à-dire, dans son esprit, d'une sorte de prière athée qu'il convenait de faire retentir au sein d'un silence aussi respectueux que celui d'une église » (ME, 71). La propension qu'a le narrateur à tout garder en mémoire, loin d'être valorisée, donne lieu à des comparaisons pour le moins triviales : « ma tête était farcie de citations, de références, pensai-je, comme un cendrier de mégots » (ME, 109) La plupart de ces réminiscences sont vécues sur le mode de la réminiscence incontrôlée, confuse, aux origines incertaines : « Les yeux presque clos, tel un crocodile, pour me protéger des catapultes du soleil (c'était quoi, ça, déjà? du Cendrars? du Saint-John Perse? » (ME, 26). Seule certitude : ses souvenirs confus ont partie liée avec d'anciennes lectures. « Moi, j'avais lu de la poésie, dans mes jeunes années » (ME, 26). Jusque dans les toutes dernières lignes du La parenté entre le personnage d'Oreille rouge et le poète Walt Whitman ne s'arrête pas là. D'une certaine manière, le premier duplique la démarche du second . On peut ainsi observer une grande proximité au plan thématique (attention portée au chant ; fréquence de la couleur rouge et de ses connotations sanguines ; abondance des métaphores animales) comme au plan stylistique (recours à un canevas syntaxique et rythmique proche). 324 161 roman, au sommet d'une grande roue qui surplombe Khartoum, le narrateur est visité par ses souvenirs, dont la source – à l'instar de celle du Nil – lui paraît de plus en plus incertaine : « ''Du haut de ma potence / J'ai regardé la France'' Une chanson de mon enfance, encore, d'où jaillie, sous mes cheveux ras, gris : Les Compagnons de Mandrin, d'où surgis? » (ME, 261). 3.3.5 « Merveille des livres, de la lecture » : le monde revisité
Faut-il prendre à la lettre ces propos profondément désabusé? Faut-il y lire une complète perte de foi envers le pouvoir de la littérature en contexte étranger? En vérité, ni Oreille rouge – personnage délibérément caricatural – ni le narrateur de Méroé – figure fantasmée d'un exilé que l'auteur n'a jamais été à proprement parler – ne peuvent être considérés comme les relais crédibles du discours auctorial. Le questionnement initié par Éric Chevillard comme par Olivier Rolin est autrement subtil : si l'un et l'autre raillent le bagage culturel de leurs personnages respectifs – qui les aveuglerait à la manière de touristes incapables de s'ouvrir à une culture qui leur est étrangère – l'exploitation que les deux romanciers font de leur culture d'origine contribue à fournir un éclairage original et non dépourvu de drôlerie sur les territoires qu'ils évoquent. Ces références occidentales, qu'elles soient empruntées à la littérature, aux arts plastiques ou au cinéma, contribuent à susciter des rapprochements inattendus. Les deux auteurs, prenant le contre-pied de la tradition cumulative des voyageurs érudits. Ces derniers étaient soucieux de rapprocher la découverte de nouveaux territoires des témoignages de ceux qui les avaient précédés. Chevillard et Rolin s'emploient au contraire à creuser l'écart en jouant des effets de contraste, à la faveur de rapprochements inédits (inouïs, au sens étymologique du terme) qui parfois, en vertu de leur caractère incongru, perpétuent l'héritage surréaliste. 162 Ainsi voit-on Olivier Rolin convoquer dans Méroé le souvenir cinématographique d'Un Chien andalou de Luis Bu ñuel pour évoquer le Nil, assimilé par le narrateur à un « rasoir tranchant tranquillement [son] oeil. » (ME, 17). La bande dessinée inspire le rapprochement incongru d'un mausolée près de Khartoum avec une fusée dessinée par Hergé lorsqu'est évoquée « la qubba argentée qui coiffe, tel l'obus gigantesque de De la Terre à la Lune, la tombe du Mahdi, » (ME, 36). L'art de la gravure pratiqué en France au XIXe siècle est sollicité pour rendre compte du spectacle qu'offre la nuit soudanaise à la toute fin du XXe : « Les phares blancs des pick-up Toyota allument des fantasmagories sur les écrans de la poussière » qui « se multiplient comme sur ces illustrations des Jules Verne de [son] enfance où l'on voyait des mirages arctiques dessinés par Gustave Doré » (ME, 40). La littérature n'est pas en reste, qui assimile le général Gordon, un aventurier anglais mort à Khartoum, à une « sorte de Lawrence du siècle passé », à un « don Quichotte christique » (ME, 11). Olivier Rolin se garde bien d'ailleurs de donner une lecture univoque de l'irréversible désaffection que connaîtraient la langue et la culture françaises, et de l'impuissance où elles seraient de dialoguer avec le territoire soudanais. Certes son personnage a bien conscience que le patrimoine littéraire dont il est le dépositaire peut susciter l'ennui : « Comme j'avais dû barber Alfa avec mes légendes à moi » (ME, 125). Il note cependant que ses récits ont le pouvoir de « charm[er] [] l'oreille de Nimour » (ME, 125), son interlocuteur soudanais. Et ce plaisir de l'échange est présenté comme réversible : Nimour aime me raconter, en sirotant son thé sombre et sucré, d'interminables histoires arabes dont je ne comprends à peu près pas un mot mais qui, peut-être pour cela, me paraissent belles. Je le remercie en lui récitant de mémoire des poèmes de La Légende des siècles, l'oeil était dans la tombe et regardait Caïn, le lendemain Aymery prit Narbonne, le coeur profond d'Hermann est vide d'espérance. Il semble en tirer un vif plaisir. (ME, 22) Éric Chevillard lui aussi met à profit ses références occidentales pour les faire dialoguer avec la réalité malienne. Il va même au-delà en substituant à l'érudition classique qui constituait autrefois le fonds commun du voyageur savant des éléments d'une culture littéraire internationale qu'il emprunte aux civilisations les plus diverses à la faveur d'un patient travail de réécriture. Ainsi le voit-on recourir à plusieurs reprises à la forme du haïku, tantôt pour évoquer le fleuve : « tu rêves / Bashô / c'est le fleuve Niger » (OR, 118), tantôt l'hippopotame : « Oh! / Les frères Montgolfier / Ont chaviré » (OR, 119) ou encore une paire de fesses entrevues à travers un pagne : « De la route / Ce côté et l'autre côté / Tout est à nous » (OR, 163 87). Parfois, c'est à un imaginaire amérindien325 qu'il fait appel, qu'il s'agisse de tourner en dérision le protagoniste : « Il est Français comme le Sioux maquillé est Sioux » (OR, 7) ou de vanter l'efficacité d'un gardien de troupeau, assimilé à un personnage de western : « Un enfant minuscule aux pieds nus dirige avec un bâton court un troupeau formidable sur la piste qui longe le fleuve. Au Far West, il y faudrait vingt-trois cow-boys. » (OR, 71) Le romancier ne recule devant aucun rapprochement, fût-il le plus septentrional : un village éclairé au néon lui fait dire que « l'Afrique la nuit évoque un hiver en Norvège » (OR, 138)326. Il n'hésite pas à entremêler les références : « Oreille rouge s'extasie devant une carcasse d'âne mort, abandonnée là. Ça lui rappelle Music, Au hasard Balthazar. Il récite à sa compagne les derniers vers d'Une charogne. » (OR, 111) À sa manière, le romancier exposé à l'expérience du voyage s'emploie à faire dialoguer plusieurs civilisations : « Sur son petit carnet noir, on trouvera des notes sans rapport avec le Mali. Oreille rouge veut bien faire un geste en faveur de ce pays [], mais il ne renoncera à aucun prix au monde plus vaste qu'il porte en lui. » (OR, 76) Le roman se nourrit d'une culture résolument mêlée – qu'elle soit littéraire, picturale ou cinématographique – qui tend à faire de l'hybridation un véritable art poétique. Le romancier adopte un positionnement équidistant : si cette esthétique nourrie d'une pensée du Tout-monde s'éloigne résolument des références longtemps valorisées par les voyageurs érudits, elle ne se rap pas pour autant de la pratique touristique soucieuse d'authenticité, bien peu compatible avec la représentation que le romancier donne de l'Afrique contemporaine. *** Déjouant les catégories simplistes auxquelles il a été trop souvent assigné, le touriste tel qu'il se manifeste dans le roman contemporain prend les traits d'une figure délibérément clivée, partagé qu'il est entre sécurité et besoin d'aventure, entre recherche d'intégration et souci de distinction, entre rejet de la culture savante et curiosité pour le savoir. Ce clivage transparaît aussi bien dans la diversité des personnages de touristes qu'à l'intérieur même du psychisme du voyageur, parcouru de fractures intimes.
| 10,626
|
5ac9f49899590e6e39d57c1213f2e64b_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,022
|
Quelles règles de fonctionnement pour les assemblées citoyennes ?
|
None
|
French
|
Spoken
| 282
| 438
|
COMMUNIQUÉ DE PRESSE – COLLÈGE DES GARANTS – 3ÈME SESSION
17 novembre 2019
Le collège des garants se réjouit de la participation toujours massive des citoyens de la convention.
Pas de défections pour ce troisième week-end ! Nous sommes également heureux de voir que
l'attention médiatique et l'intérêt autour des travaux des 150 se sont considérablement accrus.
Lors des différents formats d'audition, la pluralité des points de vue a été respectée mêlant
représentants de grands groupes, ong, experts techniques, syndicalistes...
Particulièrement, le format de speed dating permettant aux citoyens d'échanger avec près de 50
intervenants différents pendant deux heures a été très apprécié par les participants, répondant à
leur demande d'interactivité et d'autonomie. Nous encourageons le comité de gouvernance à
reproduire ce format dans la mesure où de nouvelles auditions seraient nécessaires à grande
échelle.
Plus généralement nous invitons à alterner des séquences offrant une grande autonomie aux
participants et des ateliers plus structurés par l'équipe d'animation.
Nous insistons également sur la nécessité de laisser aux participants le temps nécessaire à la
délibération, à la maturation de leurs idées et aux échanges informels.
En complément de ce qui a été distribué en début de week-end, nous estimons qu'il est
indispensable de fournir aux 150, préalablement aux prochaines sessions, l'information la plus
complète possible sur les mesures législatives et réglementaires, française et européenne, déjà en
vigueur ou en cours d'adoption, concernant les questions liées à leurs travaux qui seraient
redondantes avec leurs propositions. Ils gagneront ainsi un temps précieux.
Enfin, il convient d'assurer l'égalité de traitement entre l'ensemble des citoyens dans leurs
conditions d'accueil. De ce point de vue, la demande des plus jeunes d'entre eux en matière de
transports mérite d'être satisfaite.
| 10,770
|
47/tel.archives-ouvertes.fr-tel-00354772-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,049
| 12,163
|
Chapitre 1
Etat de l'art sur le sujet. Evidemment, la définition de « principale » est ici subjective. Nous avons effectué le choix de ces études selon deux critères non exclusifs. Il s'agit d'une part de l'impact qu'elles ont eu sur des travaux ultérieurs sur des disfluences (par exemple, mise en place d'un cadre méthodologique réemployé plus tard). D'autre part, le deuxième critère de choix est la proximité avec les objectifs de cette thèse, à savoir la détection automatique des disfluences dans le langage oral spontané. C'est lors de la présentation de ces différents travaux et de leurs résultats que nous détaillerons les caractéristiques des différentes catégories de disfluences. Le cas échéant, nous donnerons les distinctions existant selon les auteurs, et leurs motivations).
3.2.2. Blanche-Benveniste
Les travaux de C. Blanche-Benveniste sont souvent utilisés dans les études ultérieures sur les disfluences. En effet, ils fournissent un cadre pertinent de représentation et d'interprétation de ces phénomènes. Blanche-Benveniste n'effectue pas une classification précise des différentes catégories de disfluences, étant donné que ce n'est pas l'objectif principal du travail effectué. Le chapitre 2 de Blanche-Benveniste (1997, p. 45-49) présente néanmoins deux catégories de phénomènes assimilables à des disfluences : les inachèvements et les auto-corrections. La première catégorie s'applique uniquement aux phrases inachevées ; ne sont donc pas concernées des unités plus petites de l'énonciation, telles que les mots. Les autocorrections, quant à elles, ne sont pas définies formellement, mais les exemples donnés montrent que les phénomènes considérés correspondent à la première définition que nous donnons ci dessus. Selon Blanche-Benveniste, ces phénomènes peuvent être expliqués dans la perspective des axes syntagmatiques et paradigmatiques que nous avons présentée en 2.1. En effet, des phénomènes tels que les répétitions ou les auto-corrections correspondent à des entassements sur l'axe paradigmatiques. Ces entassements sont remarqués (plus précisément : audibles) à l'oral en raison de la propriété de linéarité de celui-ci. Ainsi, l'énoncé « alors les parents, euh certains parents, viennent »15 comportant une autocorrection, sera représenté ainsi : Alors les parents euh certains parents viennent On voit que la compréhension et la description des disfluences est facilitée. De plus, un traitement systémique des disfluences est ainsi permis, au même titre que l'ensemble des autres phénomènes propres à l'oral. 15 Exemple cité dans Blanche-Benveniste (op. cit., p. 49, souligné dans le texte original). 37
3. Les problèmes dans le dialogue
A partir de cette modélisation Blanche-Benveniste propose une nouvelle théorie pour rendre compte de ces phénomènes, qu'elle appelle la macro-syntaxe.
3.2.3. Shriberg
La thèse de E. Shriberg (1994) est un des travaux fondateurs dans les théories modernes sur les disfluences ; notamment grâce à l'approche d'analyse systématique qui est entreprise, ainsi que par le modèle qui est employé, et repris (même si c'est parfois pour être critiqué) par de nombreuses études ultérieures sur ce thème. Voyons à présent plus en détail en quoi consiste ce modèle (Shriberg (1994, p. 7-9, et chapitre 4, spécialement p. 62-75)). Son but est de rendre compte de manière précise de l'occurrence d'une disfluence, et de la manière dont elle affecte son environnement dans l'énoncé. Il est fondé sur le modèle de Levelt, que nous avons présenté plus haut (section 3.1.2). Nous reproduisons ci-dessous la figure utilisée par l'auteur pour présenter son modèle. Le cas présenté ici est celui d'une disfluence relative à la correction par le locuteur de sa production. Mais comme nous le verrons plus bas, il s'applique également à d'autres types de disfluences. Figure 3 : Modèle des disfluences de Shriberg
La disfluence est ici le « uh », correspondant à un « euh » en français. Avant son occurrence se situe le Reparandum (RM). Il s'agit de la zone de l'énoncé dont le contenu va être corrigé ou reformulé. Après le Reparandum se trouve la zone appelée Interregnum (IM) : celle-ci correspond à l'intervalle situé entre le Reparandum et la suite de l'énoncé qui constituera en la 38 Chapitre 1 Etat de l'art correction ou la reformulation. C'est dans l'Interregnum que peut apparaître la disfluence. Mais Shriberg précise que cette zone est de toute façon présente même en l'absence de disfluences : elle correspond à l'intervalle de temps durant lequel le locuteur procède à la replanification de son énoncé. Enfin, l'Interregnum ne correspond pas systématiquement à une pause de longue durée, et peut être aussi bref qu'une pause « normale » entre deux mots. Enfin, à la suite de l'Interregnum se trouve la phase Repair (RR). Elle comporte la correction ou reformulation de la partie de l'énoncé située dans le Reparandum. Comme nous le disions plus haut, la structure et les différentes zones du modèle que nous venons de décrire s'applique non seulement aux corrections, mais également aux autres types de disfluences. La différence résidera dans le fait que certaines des zones seront « remplies » ou non par des éléments de l'énoncé. Par exemple, la répétition d'un mot sera représentée ainsi (exemple inspiré par Shriberg (1994, p. 9)) :
Figure 4 : Exemple d'application du modèle de Shriberg
En termes de classification, l'auteur se fonde, en apportant des modifications, sur un système d'étiquetage des disfluences conçu au Stanford Research Institute ( ). Les catégories de disfluences prises en compte dans ce travail sont essentiellement décrites et détaillées dans Shriberg (op.cit. p. 57- 69). Etant donné que le travail exposé consiste à étiqueter les disfluences, la description qui en est faite regroupe aussi bien les disfluences elles-mêmes, que leur mode de manifestation et les délimiteurs utilisés pour l'étiquetage. Nous ne présentons ici que les seules catégories de disfluence. 3.2.
3.1. Les répétitions ("repeated words") Désigne tout mot qui est répété de manière identique avant et après le point d'interruption. 3.2.3.2. Les pauses remplies ("filled pauses") Il n'y a pas à proprement parler de définition pour cette catégorie. Les éléments concernés sont « uh » et « um ».
3. Les problèmes dans le dialogue
3.2.3.3. Les termes explicites d'édition ("explicit editing terms") Là encore pas de définition, mais les exemples donnés sont clairs : « no », « oops », « i'm sorry », etc. Ces exemples montrent que les termes d'édition ont pour rôle de signaler explicitement à l'interlocuteur que le locuteur s'apprête à corriger ce qu'il vient de dire. 3.2.3.4. Les marqueurs de discours ("discourse markers") Comme pour la catégorie précédente, pas de définition, mais des exemples de ces marqueurs : « well », « you know », « like ». Contrairement à l'utilisation des termes d'édition, le locuteur signale qu'il est en train de chercher à poursuivre sa production.
3.2.3.5. Les fragments de mot ("word fragments") Une définition informelle en est faite p. 26 "speech may be cut off mid-word, even mid syllable, yielding what will be referred to in this thesis as a "word fragment" or simply a "fragment" at the right edge of the RM" 16 3.2.3.6. Insertions ("inserted word"), suppressions ("deleted word"), substitutions ("Word in substituted string" / "Substituted-string fragment")
Dans la thèse de Shriberg, ces trois phénomènes sont présentés séparément les uns des autres. Nous les regroupons dans la même rubrique par commodité de présentation, et parce qu'ils relèvent tous de ce que nous avons appelé plus haut l'auto-correction (bien que ce terme ne soit pas employé). On peut en juger par les exemples donnés pour chaque phénomène, et que nous reproduisons ci-dessous. • Insertion : désigne l'apparition d'un mot dans la zone de Repair. Par exemple : please give me fares round trip fares from pittsburgh • Suppression : il y a suppression lorsqu'un mot qui était présent dans le Reparandum est absent dans la zone de Repair. L'exemple donné est le suivant : flights from boston to on friday L'auteur signale que ce type de phénomène est souvent dénommé false start ou fresh start (autrement dit, « faux départ » en français) dans d'autres systèmes de classification. • 16 Substitution : il y a substitution lorsqu'un ou plusieurs mots du Reparandum sont remplacés par un ou plusieurs mots dans le Repair. Pour qu'il y ait Notre traduction : « le discours peut être interrompu à mi-mot, même à mi-syllabe, provoquant ce à quoi nous référerons dans cette thèse comme un "fragment de mot" ou simplement un "fragment", à droite du RM ». Chapitre 1
Etat de l'art substitution, il faut également qu'il y ait correspondance sémantique et syntaxique entre le ou les mots substitués et la substitution. Par exemple : does United flight 201 serve a sn(ack)- breakfast Dans cet exemple, "snack" est remplacé par "breakfast"; il y a bien correspondance syntaxique et sémantique entre les deux mots.
3.2.4. Candea
Le principal travail de M. Candea auquel nous nous référerons ici est sa thèse de doctorat : Candea (2000). Les disfluences sont considérées à la fois sous l'angle de la psycholinguistique et de la linguistique. Le corpus sur lequel le travail est effectué comprend 13 histoires racontées oralement par des enfants. Sa durée est de 70 minutes et 25 secondes. Cinq principales catégories de disfluences sont étudiées dans la thèse. Pour chacune, nous donnons les définitions faites par l'auteur, et ajoutons quelques commentaires.
3.2.4.1. Les pauses silencieuses
Elles sont définies comme : « une interruption significative de toute émission sonore à l'intérieur d'une prise de parole. » (Candea, op.cit., p. 21). L'auteur souligne les différentes nuances à apporter à cette définition. D'abord le fait que des pauses interviennent « normalement » dans le cadre de toute production orale : que ce soit les reprises de souffle, le moment intermédiaire entre la fin d'une prise de parole d'un dialoguant et celle du suivant, etc. Comment alors distinguer une pause silencieuse disfluente d'une « normale »? Le critère principal est la durée : une pause sera considérée comme disfluente si elle dure 20 centièmes de seconde (cs) ou plus. Ce choix est motivé par diverses études existantes, dont nous renvoyons la référence à Candea (op.cit. p . 22). Il n'y a par contre pas de durée maximale au-delà de laquelle une pause n'est plus considérée comme disfluente. 3.2.4.2. Les euh dits d'hésitation Candea les définit ainsi : « Voyelle prononcée [ə, oe, ø voire ε ̃ ou oem] pouvant être soit insérée en épenthèse en finale de mot et formant une syllabe supplémentaire, soit prononcée indépendamment, avant ou après un mot. Dans ce dernier cas elle peut être séparée du mot précédent et éventuellement du mot suivant par une interruption du signal sonore plus ou moins longue, ou bien, dotée d'une montée de l'intensité qui en fait une syllabe autonome par 41 3. Les problèmes dans le dialogue rapport à la séquence précédente. Cette voyelle représente l'indice le plus largement connu pour marquer conventionnellement la recherche de formulation en français oral. » (Candea, op.cit., p. 24) Comme elle constitue une entité en tant que telle, il n'y a pas de seuil minimum nécessaire pour caractériser l'hésitation.
3.2.4.3. Les allongements vocaliques
En raison de leurs propriétés phonétiques, seules les voyelles peuvent faire l'objet d'allongements, qui sont définis comme suit : « Tout allongement vocalique anormal en position finale de mot ou d'amorce de mot, présentant un contour plat et bas ou très légèrement descendant, représente un allongement marquant le travail de formulation en cours. Une voyelle commence à être anormalement allongée lorsque sa durée se situe entre 18 et 22 cs, selon les locuteurs. » (Candea, op.cit., p. 26) 3.2.4.4. Comme nous le signalions en 3.2.1, il s'agit d'une catégorie particulièrement difficile à définir. Commençons par la première définition donnée par l'auteur : « Nous appellerons 'répétition' destinée à marquer le travail de formulation toute répétition à l'identique, en contiguïté dans la chaîne sonore d'un son, d'une syllabe, d'un mot ou d'une amorce de mot, de plusieurs syllabes ou de plusieurs mots, sans aucune valeur sémantique. » (Candea, op.cit., p. 28) De par sa définition, l'auteur exclut deux types de répétitions. D'une part celles dans lesquelles la partie répétée diffère, même légèrement, de sa première occurrence. La justification est que ce type de phénomène est catégorisé comme appartenant à une souscatégorie des autocorrections ; nous en reparlerons donc plus bas. D'autre part, l'usage volontaire de répétitions non disfluentes, par exemple dans le cas d'exagération stylistique, ou pour raisons syntaxiques (par exemple « nous nous sommes »). La « valeur sémantique » évoquée dans la définition renvoie à ce dernier cas. La répétition disfluente est constituée de deux parties. D'une part le répétable, c'est-àdire l'unité faisant l'objet de la répétition. D'autre part, le bloc du ou des répété : il comprend de 1 à n répétitions du répétable ; chaque occurrence est appelée répété.
1 Etat de l'art 3.2.4.5. Les autocorrections
L'auteur en distingue deux types, les autocorrections « immédiates » et les autocorrections « plus complexes ou faux départs ». La définition du premier type est la suivante : « dans une séquence parlée de type X Y, nous considérons que la partie Y est une autocorrection immédiate de X - si Y est prononcé pour remplacer X, et - si Y corrige un seul et unique trait phonétique ou morphologique de X. Nous incluons dans les autocorrections immédiates, en raison de leur durée très brève, les cas où Y opère un changement de classe par rapport à X, à condition que X et Y soient des mots outils et qu'ils occupent la même place syntaxique par rapport à ce qui précède X (comme dans l'exemple est-il vrai : que tu que : que ta fille est capable, ligne 294, où le pronom tu est remplacé par le SN ta fille qui occupe la même place, celle du sujet, dans la subordonnée introduite par que). » (Candea, op.cit., p. 29) Le dernier paragraphe de cette définition est relatif au cas, que nous évoquions plus haut, de répétitions qui ne sont pas complètement identiques. L'auteur précise également le point fondamental qui fait la différence entre une répétition et une autocorrection immédiate : « L'autocorrection immédiate s'apparente à la répétition dans la mesure où elle représente une reprise de tout un faisceau de traits syntaxiques, morphologiques et phonétiques sauf un. » (Candea, op.cit., p. 30 ; souligné dans le texte original) Par contre, tous les types de faux-départs ne sont pas pris en compte par l'auteur. Ils sont en effet assimilés à des techniques dites de « retouches stylistiques ». Elles sont utilisées notamment à des fins d'insistance sur un point particulier d'un énoncé. 3.2.4.6. Autres observations sur les disfluences
Deux points sont notables dans le travail de Candéa. Le premier est la constatation que certaines disfluences n'apparaissent pas « au hasard » mais dans certaines configurations lexico-syntaxiques données. Une formulation synthétique – et modérée – de cette constatation est la suivante : « En résumé, il nous semble que s'il a indéniablement été prouvé que les autocorrections et faux départs sont soumis à certaines contraintes syntaxiques, il n'a pas encore été prouvé que ces phénomènes pourraient être décrits par un modèle syntaxique simple et unique. » (Candea, op.cit., p.350) Cette constatation est corroborée par d'autres travaux, notamment Henry (2002 p. 474475) et Blanche-Benveniste (2003).
3. Les problèmes dans le dialogue
Le deuxième point est le fait que certaines disfluences, notamment les allongements et les hésitations, doivent être analysées et interprétées de manière plus fine que des « simples » perturbations de l'oral. Candéa propose plutôt de les considérer comme des « marques du travail de formulation ». De ce fait, elles acquièrent une valeur pour l'analyse de la planification de la production orale. Cette interprétation est rejointe par celles d'autres auteurs, parmi lesquels Clark et Fox Tree (voir par exemple Clark et al. (2002)). Ils proposent en effet de considérer que les disfluences sont des indicateurs utilisés par le locuteur pour indiquer ses intentions (par exemple, qu'il cherche une formulation particulière, qu'il n'a pas fini de parler, etc.). Leur analyse les conduit même à estimer que les hésitations sont des mots (du moins en anglais, puisqu'il s'agit de la langue sur laquelle ont porté leur étude), appartenant à la catégorie des interjections.
3. . Henry et Pallaud
Nous nous référerons ici à différents articles écrits par l'un et/ou l'autre de ces auteurs, relatifs à un ou plusieurs des phénomènes de disfluence. Il s'agit des articles référencés dans notre bibliographie : Henry (2002), Henry et al. (2003). Henry et al. (2004), Pallaud et al. (2004). L'immense majorité des corpus utilisés sont des « sous ensembles » de Corpaix, constitué par le Groupe Aixois de Recherche en Syntaxe (GARS), et/ou du Corpus de référence de français parlé, collecté par l'équipe DELIC (DEscription Linguistique Informatisée sur Corpus ; ex-GARS). Chapitre 1 Etat de l'art 3.2.5.1. Les hésitations
Ce terme désigne les pauses, « silencieuses » ou « remplies ». Une pause sera dite silencieuse lorsqu'aucun son n'est émis par le locuteur pendant un certain temps. Par opposition, une pause remplie est une production vocale qui ne correspond pas à ce que voulait le locuteur. Cela peut être par exemple le classique « euh », ou tout autre son compris entre la fin d'un mot donné et le début du suivant. L'une des questions primordiales compte tenu de cette définition, au moins pour la pause silencieuse, est évidemment la durée à partir de laquelle on a affaire à une hésitation et non à une pause normale entre deux mots. De ce point de vue, les auteurs choisissent, comme Candéa et d'autres, une durée de 200 millisecondes (autrement dit, 20 cs). Comme on le voit, le terme « hésitation » recouvre trois catégories qui sont distinguées chez Candéa, à savoir le « euh » d'hésitation, les pauses silencieuses et les allongements vocaliques.
3.2.5.2. C'est le phénomène qui est le plus étudié par ces deux auteurs. Il est d'abord établi, comme chez d'autres auteurs, une distinction, entre les répétitions d'origine volontaire (quelle qu'en soit la raison : effet de style, volonté d'exprimer une exagération, etc.) et les répétitions dites « de performance » car elles sont provoquées par un problème à ce niveau de la production orale. Les répétitions de performance peuvent affecter des unités de l'énoncé de granularités différentes : fragments de mots (cf. plus bas), mots, syntagmes. Les auteurs reprennent la classification faite par Candéa (cf. plus haut, section 3.2.4.4) entre « répétable » et « répété ». Les fragments de mot (aussi appelés « amorces » dans Henry et al. (2004)) sont définis comme des mots dont la production est stoppée précocement, avant leur fin « normale ». Trois catégories différentes sont distinguées, selon la manière dont cette disfluence se manifeste : • Fragments de mot inachevés : malgré la présence du mot incomplet, la phrase continue comme si le mot avait été prononcé jusqu'au bout ; • Fragments de mot complétés : le mot initialement laissé inachevé est redit, cette fois-ci jusqu'à sa fin ; • Fragments de mot modifiés : contrairement à ce qui se produit pour la catégorie précédente, le mot inachevé n'est pas repris, mais est remplacé par un autre. Les auteurs remarquent aussi que, d'une manière générale, les différentes disfluences apparaissent rarement seules, mais en combinaison les unes avec les autres. Par exemple il peut y avoir des répétitions de fragments de mots ou d'hésitations, des conjonctions de 45 3. Les problèmes dans le dialogue plusieurs catégories, etc. C'est même un cas fréquent, puisque par exemple 77% des répétitions sont associées avec au moins une pause (Henry et al. (2004, p. 262)).
3.2.6. Kurdi
L'ensemble de la thèse de Z. Kurdi (Kurdi (2003)) est consacré à la modélisation des différentes difficultés et problèmes pouvant advenir dans le cadre du dialogue oral spontané, dans une perspective de Traitement Automatique. Elle est basée sur un corpus de négociations (en anglais) de transport de marchandises par train comprenant 52 000 mots. Ce corpus est donc relativement orienté par la tâche à accomplir. Z. Kurdi, contrairement à la majorité des autres études de la littérature sur le sujet, n'utilise pas le terme de disfluences. Il trouve en effet que ce terme réfère trop à des caractéristiques prosodiques ou phonétiques, alors que le phénomène désigné ainsi devrait être décrit de manière plus générale et précise (Kurdi (op. cit., p. 20)). Il préfère donc employer le terme de « extragrammaticalité », lui-même proposé dans Carbonell et al. (1983). A partir de là, la classification proposée par l'auteur comporte deux principales catégories : les extragrammaticalités lexicales et les extragrammaticalités supralexicales. La différence entre les deux catégories est le fait que la première concerne uniquement, comme son nom l'indique, des unités discrètes assimilables à des lexèmes, alors que la seconde est relative à un niveau supérieur aux dites unités17. Chacune de ces catégories recouvre elle-même un certain nombre de phénomènes différents, que nous allons à présent présenter brièvement.
3.2.6.1. Les extragrammaticalités lexicales
Les phénomènes appartenant à cette catégorie sont dénommés pauses, mots oraux, mots incomplets, et amalgames. Comme dans l'école d'Aix, les pauses peuvent être « simples » (aucun signal n'est émis) ou « remplies » (même définition que celle que nous avons présentée plus haut) Dans le cas des pauses remplies, l'auteur emploie également le terme d'hésitation. Les mots incomplets, comme leur nom l'indique, correspondent à des mots dont le locuteur arrête la production avant leur fin. Comme le fait remarquer Kurdi, cette sous-catégorie est en général ignorée par les systèmes de reconnaissance de la parole, et n'est donc pas 17 Cette classification est sans doute faite par analogie avec les travaux linguistiques d'André Martinet, présentés notamment dans Martinet (1960), et faisant une distinction entre deux « articulations » du langage : le niveau segmental et suprasegmental. Cependant, les phénomènes désignés par ces deux termes respectifs ne sont pas exactement les mêmes que chez Kurdi ; par exemple, le niveau suprasegmental correspond, chez Martinet à tout ce qui concerne la prosodie, l'accent, etc. 46
Chapitre 1
Etat de l'art utilisable lorsque ces systèmes sont employés. Les mots oraux désignent tout mot dont l'usage est spécifique à l'oral (par exemple « ouais » en français, l'équivalent anglais étant « yeah », etc.) ; de plus leur emploi, même à l'oral, est caractéristique d'un certain registre de langue qui peut parfois faire l'objet de correction (cf. par exemple « ouais » au lieu de « oui », cité par Kurdi (op. cit., p. 24). Enfin, les amalgames correspondent aux différentes contractions utilis à l'oral ; par exemple « I'll » pour « I will » en anglais, ou « chuis » pour « je suis » en français18. 3.2.6.2. Les extragrammaticalités supralexicales
Les termes utilisés pour phénomènes appartenant à cette deuxième catégorie (répétitions, autocorrections, faux-départs, incomplétude) sont identiques à ceux utilisés dans la majorité de la littérature, à l'exception de « incomplétude ». Par contre, leur définition est parfois différente, comme nous allons le voir en détaillant chacun d'entre eux. • Les répétitions : la définition donnée est proche de celles des autres auteurs que nous avons cités auparavant. Il y a notamment prise en compte de la différence entre une répétition employée volontairement à des fins stylistiques ou autres, et une répétition disfluente. Cependant, l'auteur fait une distinction qu'il est à notre connaissance le seul à utiliser, puisqu'il considère que « La répétition est définie sur des critères purement morphologiques. Par conséquent, la formulation et la paraphrase d'un énoncé ou d'un segment (où l'on répète deux segments qui ont le même sens) ne sont pas considérées comme étant des répétitions : () ce serait un vol Paris Delhi plus un vol un vol intérieur. » (Kurdi, op. cit., p. 24, souligné dans le texte original) Dans cet exemple, le syntagme « un vol intérieur » est considéré comme étant une paraphrase du syntagme précédent « un vol ». Conformément à la définition donnée, ce n'est pas une répétition ; • Les autocorrections, contrairement aux répétitions, consistent : « à remplacer un mot ou une série de mots par d'autres afin de modifier ou corriger le sens de l'énoncé. L'autocorrection n'est pas complètement aléatoire et porte souvent sur un segment qui peut compter un ou plusieurs syntagmes (Core, 1999), c'est pourquoi elle ement selon le principe du moindre effort (certains parlent « d'économie linguistique »), mis en évidence par Martinet (cf. par exemple Martinet (1960)), selon lequel tout locuteur, consciemment ou non, tendra à réduire autant que possible la durée de sa production, en raison de la fatigue occasionnée. Elles peuvent également être provoquées par des phénomènes d'ordre phonétique ou phonologique tels que les assimilations par exemple (comme c'est le cas pour « je suis » prononcé « chuis » : assimilation régressive du « s » sur le « j »). 4. Conclusion est fréquemment accompagnée par une répétition partielle du segment corrigé. » (Kurdi, op. cit., p. 24) Un exemple d'auto-correction correspondant à cette définition est le suivant (dans lequel la disfluence est soulignée) : Oui : j'ai la j'ai les pages Web oui On observe que le syntagme faisant l'objet de la correction (« j'ai la ») est presque identique à celle-ci (« j'ai les »), à l'exception de l'article. Lorsque ce n'est pas le cas, il s'agit d'un faux-départ ; • Les faux-départs : ils se distinguent des autocorrections par le fait que : « contrairement à l'autocorrection, il n'existe aucune analogie entre le segment remplacé et le reste de l'énoncé. » (Kurdi, op. cit., p. 25) Pour illustrer cette définition, l'auteur emploie l'exemple suivant (là encore, la disfluence est soulignée) : () oui c'est à e ça se prend au deuxième étage Dans cet exemple, il n'y a pas d'analogie entre le segment remplacé (« c'est à ») et sa correction (« ça se prend ») ; • Les incomplétudes : ce terme s'applique aux énoncés (et non aux mots) qui ne sont pas terminés, autrement dit qui sont incomplets syntaxiquement. Comme l'auteur le remarque, ce phénomène n'a pas été pris en compte par les principales études sur les disfluences. 4. Conclusion
Ce chapitre nous a permis de faire une première présentation des phénomènes qui font l'objet de cette thèse. Nous avons montré que leur apparition est naturelle dans le cadre de toute production orale spontanée, qu'il s'agisse de discours ou de dialogues. Nous avons également fait une synthèse des principales études sur le sujet. Ces études ont montré que, malgré l'apparence aléatoire revêtue par les disfluences, leurs manifestations obéissent en fait à certaines régularités, notamment d'ordre syntaxique. Cette synthèse nous a également permis de considérer les causes des disfluences et plus généralement des problèmes apparaissant à l'oral spontané, d'un point de vue cognitif et psycholinguistique. Enfin, notre but est de pouvoir ainsi disposer de catégorisations des disfluences, qui sont un phénomène particulièrement difficile à classifier en raison de leur grande variété de manifestations. Il est cependant possible de dégager quelques grandes catégories, même si les frontières entre elles sont assez floues et varient selon les auteurs. Chapitre 1 Etat de l'art
A partir de ce panorama des catégorisations (dont nous faisons la synthèse19 dans le Tableau 1 ci-dessous), nous pourrons choisir la terminologie qui est la plus adaptée au contexte que nous étudions.
Tableau 1 : Présentation synoptique des catégorisations de disfluences
Auteurs Nature du corpus Shriberg 3 corpus avec des situations variées de dialogues oraux spontanés Phénomènes étudiés/terminologi e employée • Répétitions • Pauses pleines • Termes explicites d'édition • Marqueurs du discours • Fragments de mots • Insertions • Suppressions • Substitutions Candea Histoires racontées oralement par des enfants • Pauses silencieuses • « euh » dits d'hésitation • Allongements vocaliques • Répétitions • Autocorrections Henry et Pallaud Corpaix : dialogues oraux spontanés (différentes situations) • Répétitions • Pauses • Fragments de mots (ou amorces) : o In
ache
vés o Comp
l
étés o Modifiés
Kurdi
Né
goci
ations
de transport de marchandises • Extragrammaticalités lexicales
:
o Pauses o Mots oraux o Mots incomplets, amalgames. • Extragrammaticalités Supralexicales : o Répétitions o Auto-corrections o Faux-départ o Incomplétudes. Cependant, les corpus sur lesquels les études que nous avons présentées ont été menées peuvent être qualifiés de « tout venants ». Par ce terme, nous voulons dire que leurs caractéristiques linguistiques relèvent du langage (français ou anglais) tel qu'il est employé dans la majorité des situations de la vie quotidienne. Or, le travail décrit dans notre thèse porte sur un corpus très différent à tout point de vue. Les différences sont telles qu'il est nécessaire de leur consacrer l'intégralité du prochain chapitre. 19 A l'exception du travail de C. Blanche- veniste : comme nous l'avons vu en 3.2.2, il n'y a pas à notre connaissance de travail de classification systématique de disfluence entrepris. 1. Introduction Chapitre 2 L'oral spontané dans le contrôle de la navigation aérienne 1. Introduction
Dans le premier chapitre, nous avons passé en revue les principales définitions des phénomènes de disfluences, et décrit comment elles se manifestent au sein de divers corpus (réservations, conversations, etc.) de dialogues oraux spontanés. Le travail que nous rapportons porte sur des corpus différents de ceux présentés dans le chapitre 1. Il s'agit de dialogues relatifs au contrôle aérien. La tâche de contrôle aérien entraîne des contraintes particulières qui s'exercent notamment aux niveaux linguistique et cognitif. Nous montrons dans le présent chapitre que ces contraintes sont bien plus fortes que celles mises en oeuvre ou rencontrées dans les dialogues relatifs à d'autres tâches. Nous répondrons ainsi à l'une des questions soulevées dans le chapitre précédent : ces contraintes peuvent-elles avoir une influence sur la nature, le mode de manifestation, et la distribution des phénomènes de disfluences? Dans un premier temps, nous décrirons un aperçu général du contexte dans lequel s'inscrit le contrôle aérien. Il s'agit d'un domaine très spécialisé et peu connu en dehors des milieux qui le pratiquent. Nous affinerons ensuite la granularité de notre analyse en nous penchant sur les caractéristiques des dialogues entre contrôleurs aériens et pilotes. Enfin, nous présenterons les corpus d'étude, en les plaçant dans la perspective définie dans les sections précédentes.
2. Présentation générale du contexte 2.1. Le trafic aérien
Le trafic aérien consiste en la circulation de l'ensemble des différents appareils volant dans un périmètre donné (une région, un pays, etc.). Cette apparente banalité recouvre une très grande complexité : dans la zone aérienne d'un pays tel que la France, des milliers d'avions peuvent évoluer au même moment , qu'il s'agisse de vols civils ou militaires. De plus, pour des raisons de sécurité, chaque avion doit être suffisamment distant de tout autre appareil volant pour éviter, non seulement toute collision, mais également tout phénomène pouvant être causé par une interaction physique trop proche, tel que des appels d'air par spontané dans le contrôle de la navigation aérienne exemple. La situation est encore plus complexe en raison de la croissance permanente du nombre de vols affrétés20. En effet, le nombre d'avions à traiter dans une zone donnée augmente ; de plus, comme chaque avion doit disposer d'un certain espace pour se mouvoir sans risque de collision, les plans de vols correspondants sont d'autant plus difficiles à établir. Il serait impossible de faire fonctionner un tel système complexe de manière ordonnée sans une série de mécanismes de gestion et de contrôle, au centre desquels se trouvent les contrôleurs aériens, et que nous décrivons ci-après.
2.2. La tâche de contrôle aérien
D'une manière générale, la tâche de contrôle aérien vise à remplir deux buts : informer d'une part, et guider d'autre part, les différents véhicules volants21. Tous les centres de contrôle aérien ne se situent pas en proximité des aérodromes. Il y a cinq centres appelés « Centres en Route de la Navigation Aérienne » qui servent à gérer le trafic entre les aérodromes ; il y a également les différents centres situés eux, à proximité des aérodromes, et permettant de contrôler l'approche et l'atterrissage sur l'aérodrome. De fait, il est exprimé en aéronautique une distinction entre les deux aspects du vol : en route d'un côté et en approche de l'autre. Ils correspondent, en effet, à deux types de procédures assez différentes, que ce soit au niveau des résultats obtenus ou des moyens mis en oeuvre. Ainsi, la procédure d'approche consiste essentiellement à gérer l'arrivée à l'aéroport, l'atterrissage, etc., alors que celle d'en route implique notamment la gestion du plan de vol (les différentes positions géographiques par lesquelles doit passer l'aéronef). Celles-ci ont également des points commun : par exemple, la gestion de la cohabitation de différents vols, la variabilité des conditions météorologiques, etc. Dans le cadre de notre recherche, nous étudions les dialogues opérationnels dans les Centres en Route. Il n'y a fondamentalement pas de différence entre les tâches des contrôleurs d'un ou de l'autre type de centre, surtout en ce qui concerne la phraséologie. Ce terme désigne le langage employé par les opérateurs humains impliqués dans le trafic aérien. Il s'agit d'un ensemble lexico-syntaxique (lexique, règles de composition des énoncés) constitué par les différents ordres et informations relatifs au contrôle aérien. Nous présentons les caractéristiques de ce langage dans la section 3 ci-dessous. Le travail du contrôleur aérien est de remplir deux objectifs. Le premier est la communication d'information aux pilotes, de manière à leur permettre de naviguer dans les meilleures conditions possibles de sécurité. Ces informations concernent les conditions météorologiques, les changements de cap d'autres aéronefs, etc. 20 Cette croissance est due à des raisons économiques et sociales qui ne sont pas à décrire ici. Il est à noter qu'il existe également dans le cadre du contrôle aérien français des agents chargés de la seule information des pilotes, indépendamment de leur guidage. Mais dans le cadre de cette thèse, on ne traitera que le cas des seuls contrôleurs au sens propre du terme.
2. Présentation générale du contexte
Le deuxième objectif est le contrôle aérien. Il consiste principalement à faire respecter le plan de vol défini à l'avance pour les avions, à en gérer les éventuelles modifications, sources de conséquences sur les autres plans de vol, etc. Pour cela, les contrôleurs ont recours à des instructions, appelées clairances, donnant des indications sur les actions à effectuer compte tenu de la situation courante et du plan de vol. Ces indications peuvent avoir trait à l'attitude de l'avion (maintenir, monter, baisser), sa vitesse, sa direction, etc. Le but principal du contrôle aérien est d'assurer la sécurité des différents vols. Les dangers à éviter sont toute collision ou problème imprévu lié à la cohabitation de différents avions dans le même secteur, ainsi que tout autre perturbation, qu'elle soit météorologique, humaine, mécanique, etc. Chaque aéronef est identifié par un indicatif alphanumérique (par exemple « D T C » ou « Britair 452 »), et doit suivre un plan de vol indiqué par le contrôleur, en fonction des trajectoires des autres avions. Chaque contrôleur s'occupe d' secteur particulier. Les contrôleurs travaillent généralement en binôme (cf. Figure 5). Leurs activités de contrôle s'appuient sur deux sources d'informations : la première, numérique, est supportée par l'affichage d'informations sur les avions du secteur : un écran radar donnant les indications sur leur position, leur vitesse, etc. (Figure 6). La seconde est donnée par des « strips » (Figure 7). Ces derniers sont des bandes de papier sur lesquelles les contrôleurs notent diverses informations relatives aux avions de leur zone, au fur et à mesure des déplacements de ceux-ci dans la zone contrôlée. Figure 5 : Contrôleurs aériens en exercice Figure 6 : Exemple d'image radar Figure 7 : Exemple d'un strip
52 Chapitre 2 L'oral spontané dans le contrôle de la navigation aérienne
La tâche des contrôleurs aériens est assistée par des outils informatiques. Nous pensons notamment au Data-Link. Il s'agit d'un dispositif technique qui permet la transmission de données air-sol par liaison22 de données numériques. Le Data-Link présente de nombreux intérêts, parmi lesquels la possibilité de diffuser des informations complémentaires à la communication orale. De plus, de nombreuses recherches sont menées afin d'optimiser les différents types d'interaction, voire en proposer de nouveaux23. Cependant, pour l'instant, la principale modalité d'interaction utilisée par les contrôleurs reste la communication orale avec les autres acteurs du trafic aérien, en particulier les pilotes. Cette modalité présente un certain nombre de caractéristiques spécifiques au trafic aérien, qui font l'objet du développement suivant.
3. Le dialogue oral dans le contrôle aérien
Dans le vaste domaine que recouvre le contrôle aérien, la communication orale est utilisée non seulement entre les contrôleurs et les pilotes, mais également entre les contrôleurs entre eux, les pilotes entre eux, etc. Les motivations de l'étude du seul dialogue contrôleur-pilote (pour l'utilisation de la modalité orale) sont d'ordre linguistique. En effet, l'étude des dialogues contrôleur-pilote est intéressante car les deux locuteurs sont placés dans des conditions pragmatiques différentes : au niveau de la situation dans laquelle se trouvent les locuteurs (par exemple, piloter un avion en déplacement implique des contraintes matérielles différentes que de se trouver dans une tour de contrôle) et au niveau fonctionnel (les rôles sont très différents et bien codifiés). Par contre, le linguistique des différentes situations est à peu près identique : les locuteurs, quel que soit leur rôle dans le trafic aérien, utilisent la même phraséologie. Nous débutons cette section par une présentation générale des principales caractéristiques des dialogues contrôleurs / pilotes. Nous continuons ensuite cette analyse, de manière plus approfondie, en nous basant sur quatre études menées sur la phraséologie du contrôle aérien : Falzon (1982 et 1989), et Volpe et al. (2002 et 2004)24. Notre but sera de montrer en quoi, et comment, les caractéristiques pragmatiques dictées par la tâche (particulièrement les contraintes de sécurité du trafic aérien) influent sur les aspects linguistiques. 22 Liaison de type radio-électrique. Les données transmises par ce biais sont numériques et non analogiques comme cela est le cas avec les communications classiques. 23 Voir notamment les travaux menés par l'équipe PII du DSNA (http://www.tls.cena.fr/divisions/PII), par exemple Mertz et al. (2000), Mertz (2003). 24 Signalons que les études menées sur ces aspects de la communication de contrôle aérien sont très rares. A notre connaissance, celles que nous citons ici sont les seules existantes, au moins en ce qui concerne la sphère francophone. 3. Le dialogue oral dans le contrôle aérien 3.1. Les dialogues contrôleurs aériens / pilotes
Comme nous le mentionnons dans le chapitre 1 (section 2.2), tout dialogue doit respecter des règles, implicites ou explicites, et être structuré. Cet impératif est primordial dans le cas des dialogues de contrôle aérien. Dans un premier temps, nous expliquons les raisons pour lesquelles ce type de dialogue nécessite l'existence de la phraséologie, que nous avons définie dans le présent chapitre, en section 2.2. Dans un second temps, nous présentons les caractéristiques de celles-ci.
3.1.1. Impératifs de la communication
La communication des contrôleurs et pilotes est totalement dictée par la tâche de contrôle (voir section 1.2 ci-dessous). Les principaux impératifs à respecter pour la communication dans le cadre du contrôle aérien sont : • L'intelligibilité: il faut prendre en compte les problèmes de transmission radio ; • La rapidité : le contrôle aérien s'effectue dans un contexte particulièrement dynamique : les avions en circulation se déplacent très rapidement ; des imprévus peuvent arriver (pannes, changements météorologiques, etc.) et demander une réaction instantanée. Il est, par conséquent, impératif que les communications relatives à la tâche de contrôle soient aussi rapides que possible ; • La bonne interprétation du message : il est nécessaire d'être certain que le message transmis a bien été bien réceptionné et interprété. Un des points cruciaux est la suppression de toute ambiguïté. Cette nécessité concerne le niveau sémantique : à un mot ou une instruction donné ne doit correspondre qu'un seul sens, strictement défini. De ce point de vue, la phraséologie est l'exacte représentation de la portion de « monde réel » constitué par le trafic aérien, sans ajout ni retrait d'information sup . Pour reprendre la terminologie de Jackobson (1963), les fonctions référentielles et conatives sont primordiales, la fonction phatique un peu moins, et les fonctions métalinguistique, expressive et poétique inexistantes.
3.1.2. Caractéristiques de la phraséologie du contrôle aérien
Pour répondre à ces impératifs, la communication des contrôleurs est dictée par une phraséologie, décrite officiellement dans (Arrêté du Journal Officiel, 200025). Le contrôleur aérien doit maîtriser cette phraséologie. L'objectif de la phraséologie est décrit dès les premières pages du document officiel que nous rappelons brièvement ci-dessous : 25 Légèrement modifié par l'Arrêté du 24 novembre 2005, paru dans le J.O n° 26 du 31 janvier 2006, page 1621. La priorité est définie par une hiérarchie : un message de détresse passe avant tout les autres, viennent ensuite les messages d'urgence, puis de contrôle du trafic, puis d'information, et enfin la communication entre exploitants d'aéronefs.
55 3. Le dialogue oral dans le contrôle aérien
Jusqu'ici, nous avons considéré les énoncés dans leur individualité, c'est-à-dire en tant que tours de parole distincts les uns des autres. Voici à présent deux exemples de dialogues entre des contrôleurs et des pilotes, issus de situations réelles. 1er dialogue (2 tours de parole) : Contrôleur : F P I contacter Paris 120,95 au revoir. Pilote : Paris 120,95 PI au revoir. Commentaires : Voici un exemple d'un dialogue très simple, puisqu'il ne comporte qu'un seul échange entre le contrôleur et le pilote, chaque échange ne comportant qu'un seul énoncé. Le contrôleur s'adresse au pilote du vol F P I (il le mentionne explicitement pour éviter toute ambiguïté), et lui enjoint de contacter le centre de Paris, en utilisant la fréquence « 120,95 »27 du canal. Le pilote collationne en reprenant les éléments de l'instruction du pilote. On remarque que le pilote utilise plusieurs « raccourcis » : omission du verbe « contacter », et forme abrégée de l'indicatif28. On voit ici que la phraséologie, malgré le cadre contraint qu'elle fixe, permet néanmoins une certaine souplesse de l'expression. 2ème dialogue (9 tours de parole) : C
ontrôle
ur
: COTAM 12 75 bonjour. Pilote : Bonjour. Pilote : 12 75 au niveau 90 en route vers SO SOPIL. Contrôleur : supérieur? Roger vous choisissez un vous voulez un niveau Pilote : Négatif on doit rentrer rapidement c'est pour une Evasan. Contrôleur : Alors vous montez au niveau 100 ou vous choisissez 100 ou 80 comme vous voulez. Pilote : 80. Contrôleur : Alors euh descendez au niveau 80 et procédez sur AMB. Pilote : AMB merci. Commentaires : nous avons choisi ce dialogue pour donner un exemple de discussion plus complexe que la précédente entre le contrôleur et le pilote ; on y voit que le dialogue du contrôle aérien peut être plus complexe que l'exemple précédent. La situation considérée ici permet de voir comment les deux dialoguants s'adaptent à une situation donnée : le pilote est dans une situation d'urgence (une Evasan désigne une EVAcuation 27 Rappelons ici qu'un numéro de fréquence correspond à la zone d'une plage de longueur d'onde (le canal) pouvant être utilisée pour une communication donnée. 28 Selon les circonstances, l'indicatif désignant un avion peut être prononcé selon différentes formes, de longueurs variables. Par exemple, à la forme complète de l'indicatif « FPI 215 » pourra être substitué « P I », comme dans le dialogue que nous considérons ici, ou « 2 1 5 », etc. Les différentes dérivations pouvant être obtenues à partir d'un indicatif donné résultent de l'application de règles. Ces règles ont été décrites et formalisées dans (Dourmap, 2003). L'oral spontané dans le contrôle de la navigation aérienne SANitaire), et le contrôleur lui laisse une certaine latitude par rapport au choix de l'orientation du vol. La phraséologie cherche également à supprimer les ambiguïtés sur le plan phonétique : les éléments pouvant faire l'objet d'une confusion doivent être articulés clairement. Par exemple, toute lettre ou série de lettres isolées (constituant, par exemple, des indicatifs) doit être épelée en respectant l'alphabet utilisée dans la radio-émission : « Alpha » pour « A », « Bravo » pour « B », « Charlie » pour « C », etc.
3.2. Analyses linguistiques des dialogues contrôleurs-pilotes
Les caractéristiques décrites ci-après sont tirées des quatre principales études. Pour bien en appréhender la valeur scientifique, en voici d'abord une présentation générale : • Falzon (1982 et 1989) : Falzon (1982) est fondé sur l'hypothèse suivante « le langage des contrôleurs ne doit pas être réduit à un langage de commande, il n'est pas non plus un échantillon de la langue naturelle : il en est une restriction. » (Falzon (1982, p.1)) L'ensemble de l'étude est consacrée à l'évaluation de cette hypothèse, en prenant en compte tous les paramètres linguistiques disponibles. Falzon (1989) reprend le contenu de Falzon (1982), et apporte en plus différentes analyses d'ordre cognitif ; • Volpe et al (2002 et 2004) : le but de ces études est d'analyser la manière dont le canal de communication air-sol est utilisé. L'analyse comprend aussi bien un volet structurel, relatif au taux d'occupation du canal, au nombre de communications passées, etc. qu'un aspect plus sémantique, avec étude du contenu des dialogues. Les deux étud sont menées respectivement à partir de conversations en route et en approche. A cette différence près, les objectifs et méthodologies sont identiques. Des analyses de la phraséologie faites dans ces études, il ressort que le lexique est finalisé à l'application et que les structures syntaxiques de l'oral sont simplifiées. Il est également constaté que certains mots et fréquences apparaissent beaucoup plus fréquemment que d'autres. Revenons sur ces différents points : • Lexique finalisé à l'application : les deux caractéristiques du lexique utilisé par la phraséologie sont d'une part, une taille réduite (mesurée en nombre d'éléments lexicaux) et d'autre part, une grande adaptation à la spécificité du contrôle aérien. o Taille du lexique : Falzon (1982, p. 13) dénombre 417 mots différents en français et 214 mots différents en anglais, soit un total de 714 mots différents 57 3. Le dialogue oral dans le contrôle aérien utilisés. Pour rappel, la taille du lexique français « fondamental »29 est d'approximativement 4000 à 5000 mots30 ; o Distribution des classes de mots du lexique du contrôle aérien : Falzon (1982, p. 18-19) fait également une catégorisation fine des messages transmis sur le canal de communication, et de leur fréquence, en sept classes de messages différents. Trois de ces classes sont exclusives au domaine du contrôle aérien (gestion du trafic aérien, du contact radio, et du radar) ; les 4 autres ne sont pas aussi spécifiques : politesse, coordination des messages (« et » ), « métamessages » (« dommage », « tant mieux »), et mise à jour des connaissances. Leur distribution indique une forte adaptation à la tâche : les seules classes relatives à la gestion du contrôle aérien et celle du contact radio couvrent respectivement près de 40% et près de 30% de l'ensemble des messages prononcés (Falzon (1982, p. 25)). • Fréquences d'emploi : Parmi les différentes conclusions de Falzon, en voyons deux qui sont particulièrement intéressantes dans le cadre d'une analyse linguistique de la phraséologie. La première concerne le taux de couverture lexicale : « pour couvrir 90% des mots prononcés, il suffit de 130 mots différents en français (c'est-à-dire 27.4% du vocabulaire français), 84 mots différents en anglais (c'est-àdire 34% du vocabulaire anglais). » (Falzon, op. cit., p. 15). Cette constatation est intéressante car elle permet de voir que non seulement le lexique correspondant à la phraséologie est très restreint, mais que de plus l'utilisation effective des mots qui en est faite est encore plus limitée! Cela peut paraître contradictoire avec une autre observation de Falzon, concernant ce qui est appelé la banalité des mots. La définition en est donnée p.15 (voir aussi p. 28) : « l'indice de banalité d'un mot est le nombre de contrôleurs qui utilisent ce mot. » (Falzon, op. cit.). Il s'avère, d'après les différentes statistiques effectuées, que les mots d'indice 19 à 20 (maximum de la notation) sont très peu nombreux (3 en français, 5 en anglais). Autrement dit, les contrôleurs ont propension à utiliser chacun des mots différents de ceux de leurs collègues. Ce résultat peut sembler étonnant. En effet, la synonymie est rendue impossible par la nécessité absolue d'éviter toute ambiguïté. D'autre part, la taille réduite du lexique (plusieurs fois inférieure à celle du français « fondamental ») restreint le choix parmi les différents lexèmes pouvant être utilisés pour exprimer une idée donnée. Une des explications à cette stratégie des locuteurs 29 Notion évidemment assez floue et intuitive, utilisée entre autres par l'Académie Française, désignant l'utilisation au quotidien de la langue française. 30 Voir par exemple le travail de Catach et al. (1984), établissant une liste des 1600 mots les plus fréquents du français, à partir de laquelle est défini un lexique de base du français.
| 54,090
|
31/hal.archives-ouvertes.fr-tel-01913532-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,412
| 11,890
|
Figure 10 : Traits caractéristiques des glissements rocheux (GR). A : cicatrice d'arrachement d'une RVR sur la rive gauche de l'Arvan (commune de Saint Sorlin d'Arves) (code : 9Gr, p. 976 de l'Atlas). B : bourrelets de glissement soumis à l'extension. C : bourrelets de glissement soumis à la compression. L'encart B et C se localisent sur le versant sud de la Roche Noire (2238 m) dans la vallée de l'Arvan (code : 11Gr, p. 978 de l'Atlas). Le schéma du glissement rocheux est ici emprunté à l'USGS, mais maintes fois reproduit dans la littérature.
1.1.1.4 Les dépôts d'éboulement
Les dépôts rocheux issus d'éboulements sont à différencier des dépôts glaciaires. Si les dépôts glaciaires prennent des formes bien particulières (moraine notamment), les dépôts issus d'éboulements ne produisent pas de forme spécifique. Deux grands types de dépôts peuvent être distingués sur les versants : ceux se produisant sur une pente, et ceux s'étalant sur une surface plane. En fonction de la pente, un granoclassement peut être 37 visible, avec les blocs les plus gros se disposant au plus bas du dépôt, et les sédiments les plus petits et fins dans les parties amont (Fig. 11A). Quand la masse rocheuse tombe sur une topographie plane, on ne trouve pas de granoclassement car tous les débris de toutes tailles s'entassent au même endroit. Plus le volume tombé est important, plus le dépôt s'étale, ce qui rend plus facile à repérer (Fig. 11B).
Figure 11 : Dépôts d'éboulement au pied de l'Aiguillette du lauzet (Vallée de la Guisane). A : Dépôt avec un grano
classement des sédiments en fonction de la pente au pied de l'Aiguillette du Lauzet, dans la vallée de la Guisane. B : dépôt d'éboulement sur une partie plane au pied du Pic du Pelvas, en Haute-Ubaye. Malgré le fait que les dépôts d'éboulement ne prennent pas de forme spécifique, il peut apparaitre, dans certains cas, une surface chaotique en surface avec de nombreux affaissements et buttes. On parle ici de dépôts très volumineux (plusieurs milliers de m 3) que l'on nomme « Sturzstrom » (Heim, 1932 ; Schneider et al., 1999).
1.1.2 Rétrospective des débats sur les mécanismes de mouvement depuis 50 ans
Depuis les travaux pionniers de De Martonne (1901), Heim (1932) et Abele (1974) qui mentionnent la présence de formes particulières sur les versants, les premières hypothèses et controverses des mécanismes de déformation sont apparues dans les années 1960 avec les publications de Jahn (1964), Zischinsky (1966), et Beck (1968) à partir de croquis interprétatifs. Dès 1966, Zischinsky voyait les RVR comme une expression d'un fluage 38 gravitationnel en surface et comme une déformation dont les matériaux pouvaient être étirés sans se rompre en bas de versant et fragile en haut de versant (Fig. 12C). Le problème avec cette vision est que le bas du versant est souvent recouvert par des éboulis ou bien par du dépôt alluvionnaire. Cette mécanique est irréalisable selon Bachmann (2006) car « le comportement ductile d'une roche massive à faible profondeur est en désaccord avec tous les modèles rhéologiques ».
Figure 12 : Rétrospective des différentes hypothèses des mécanismes de mouvements des RVR. A : Beck (1968). B : Jahn (1964). C : Zischinski (1966). Pour Jahn (1964), les tranchées observées sur les versants des Tatras (Slovaquie et Pologne) sont dues à une ouverture ou à un affaissement lié à l'existence de failles (Fig. 12B). Il semble, selon Bachmann (2006), que ce modèle des mécanismes de déformation ne soit pas à l'origine des RVR mais en interaction avec les discontinuités pré-existantes. En Nouvelle-Zélande, Beck (1968) voyait une cause d'un déplacement gravitaire dans la roche fragilisée ou endommagée par des séismes et par les glaciations et localisée le long de fractures (Fig. 12A). Ce modèle, sans doute le mieux admis selon Jomard (2006), proposait 3 hypothèses : les deux premières proposaient des fractures rectilignes et la troisième des fractures en arc de cercle. Les deux premières hypothèses sont mécaniquement irréalisables selon Bachmann (2006), car l'orientation des zones de 39 cisaillement est indépendante de l'état de contrainte. La troisième hypothèse est, toujours selon Bachmann (2006), en accord avec la réalité et avec les recherches sur le sujet. Beaucoup d'auteurs reprennent encore aujourd'hui ces différentes hypothèses de déformations en profondeur, mais celles-ci alimentent toujours la controverse faute de modèles réussissant à reproduire fidèlement la nature et la géométrie des déformations en profondeur (Bachmann, 2006). Par exemple, la plausibilité des croquis de Beck (1968 ; Fig. 12A) a été mise en doute, car les croquis interprétatifs sont irréalisables. Son troisième croquis est un cas extrême de crête bifide avec la création d'un graben central. Ils peuvent s'expliquer plus simplement par une propagation latérale avec des escarpements à source unique ou multiple, mise en lumière par la crête bi de. Mécaniquement, en fonction des formes des montagnes et en complète contradiction avec Beck (1968), il semblerait que les pics montagneux de type horns soient plus résistants à la fragmentation que les massifs composés de hauts plateaux (Gerber et Scheidegger, 1969). Ainsi, plusieurs études ont montré que les reliefs paléiques, composés de grandes étendues relativement planes dans les montagnes sont davantage soumises aux instabilités de type RVR que les portions de massifs où les crêtes sont édentées (Calvet et al., 2015). Cela a notamment été montré dans les Carpathes méridionales (Blondeau et al., 2016). Dans les années 1970, l'explication des déformations se focalise sur les déformations de surface, sans particulièrement pouvoir expliquer ce qu'il se passe réellement en profondeur. 40 Figure 13 : Déformations de versant montrant les fractures probables et la nature des mouvements subparallèles dans la masse rocheuse. Extrait de Radbruch-Hall et al., 1976. 1.1.3 Connaissance des mécanismes de mouvement grâce aux modèles 2D et 3D
Les mécanismes de mouvement des masses rocheuses sont davantage connus grâce aux nouvelles technologies et aux modèles numériques qui sont apparus depuis plusieurs dizaines d'années. Il est possible en laboratoire de recréer les conditions de la mécanique des roches en confectionnant dans des boîtes rigides la copie d'un versant et en créant artificiellement les failles. Il est ainsi possible de visualiser et de comprendre les mouvements des matériaux et leurs déformations internes (Eberhardt et al., 2004 ; Chemenda et al., 2005 ; Bachmann et al., 2009). L'avantage ici est de comprendre également les mécanismes de mouvement à large échelle. Ce type d'expérience a été faite pour la RVR de la Clapière (Bois et al., 2008) avec 5 cas d'études différentes (cas 1 : modèle homogène ; cas 2 : un versant coupé par six failles avec une inflexion à faible profondeur ; cas 3 : un versant coupé par six failles avec une inflexion en profondeur ; cas 4 : un versant coupé par six failles avec une inflexion à faible profondeur et avec une faille de poussée ; cas 5 : un versant coupé par 6 failles avec une inflexion en profondeur et avec une faille de poussée (Fig. 14). Les résultats de cette étude indiquent que la présence, l'orientation et la continuité des zones de fractures préexistantes sur un versant contrôlent le style des déformations gravitaires et que la géométrie des failles en profondeur exerce un contrôle fort sur les 41 déformations de surface. Les déformations en profondeur n'impliquent pas seulement le versant mais le massif entier du Mercantour. Lorsque l'on regarde à l'échelle du massif, ce type de modèle peut sembler en accord avec i de Beck (1968) car la montagne apparaît comme soumise à de multiples déformations structurales en profondeur, comme Beck (1968) le suggérait. Toutefois, à l'échelle du glissement de La Clapière, il semble que le modèle s'apparente davantage à ceux de Zischinski (1966) et de Mahr et Němčok (1977) : glissant le long d'une zone de cisaillement. Figure 14 : Déformation du versant pour 5 cas d'étude du versant de la Clapière (Vallée de la Tinée, France). D'après Bois et al. (2008).
1.2 Les inventaires de glissements, ingrédients d'une analyse de l'évolution des paysages
Malgré l'intérêt scientifique et pratique d'une compréhension de la répartition spatiale des RVR, il se trouve paradoxalement que le nombre d'études ayant inventorié des RVR dans un bassin versant ou un massif donné sont relativement rares. Même si depuis 20 ans et à l'échelle globale, les glissements ont été fortement documentés à partir d'inventaires et de bases de données, qui ont servi d'appui à la réalisation d'une première image de la distribution spatiale (Van den Eeckhaut et Hervás, 2012 ; Wood et al., 2015), il reste encore à ce jour beaucoup de massifs ou de bassins versants à étudier pour construire des inventaires systématiques de glissements. Ainsi de 2004 à 2009, seuls 2% des articles 42 publiés dans la revue « Landslides » ont fait l'objet d'inventaires (Sassa et al., 2005). Il est estimé que la cartographie des glissements ne couvre que 1% des versants des masses continentales, et donc qu'il y existe une grande lacune d'informations systématiques sur le type, l'abondance et la distribution spatiale des glissements (Guzzetti et al., 2012). 1.2.1 Objectifs des inventaires de RVR
Quel que soit l'objectif premier de la construction d'un inventaire spatialisé de glissements, qu'il s'agisse d'une mise en perspective chronologique (Guzzeti et al., 2012), d'une comparaison avec la répartition des précipitations (Le Mignon et Cojean, 2002 ; Hong et Adler, 2008) ou des séismes (Keefer, 1984 ; Chen et al., 2005), ou de construire une carte de susceptibilité de l'aléa « glissement » (Guzzetti et al., 2005 ; Hermanns et al., 2013), les inventaires donnent une idée de la distribution spatiale, du type, de la taille et de la morphologie des glissements superficiels et des RVR. Les inventaires donnent aussi, lorsqu'elles sont connues, les dates d'occurrence des glissements superficiels. La cartographie d'inventaire de glissements est préparée en fonction d'une diversité d'objectifs : • documenter l'extension des glissements dans une région en analysant les types, la taille (Fig. 15A), ou bien encore la récurrence temporelle des glissements (Guzzetti et al., 2012). Ceci amène à une meilleure compréhension des RVR et ainsi à pouvoir éventuellement prévoir leur apparition. • la construction d'un inventaire est une étape préliminaire pour la susceptibilité d'occurrence des RVR (Coe et al., 2004) (Fig. 15B). • comprendre l'évolution des paysages dominés par les processus de masses (Giardino et al., 2004 ; Shroder et al., 2011 ; Oppikofer et al., 2017) (Fig. 15C). • définir si les paramètres exogènes ou endogènes ont un impact sur les RVR. Par exemple, Sanchez et al. (2009) élaborent un parallèle entre la tectonique, le 43 changement climatique holocène et la recrudescence des glissements de type RVR dans le massif du Mercantour. • étudier statistiquement un inventaire de glissements. Par exemple, Tonini et al. (2014) ont analysé un inventaire dans la vallée du haut-Rhône et ont démontré statistiquement que les séismes étaient un facteur de prédisposition des RVR. Il est possible aussi, avec l'aide d'un modèle statistique, de pouvoir prédire l'occurrence des RVR sur une aire d'étude (Guzzetti et al., 2005). 1.2.2 Méthodes d'investigations pour les inventaires de glissements et l'analyse des paysages
Les méthodes d'investigation concernant le repérage des RVR en vue d'un inventaire sont de deux ordres, et s'avèrent récurrentes dans presque toutes les études publiées. Au départ, le repérage se faisait classiquement par stéréoscopie (Parent et al., 2000) (Fig. 16D) et par la prospection de terrain (Goguel, 1989) (Fig. 16A). Un couplage des deux techniques se pratique encore aujourd'hui (Moine et al., 2009) (Fig. 16E). Ces techniques prenaient beaucoup de temps et demandaient de nombreuses ressources car il était nécessaire de pouvoir retourner sur le terrain dans l'espoir d'observer une évolution (Fig. 16B et C). Une autre méthode d'investigation consiste à travailler avec les cartes topographiques au 1/25 000e. Noverraz (1990) a ainsi entrepris de construire un inventaire des glissements de terrain et des écroulements rocheux sur le territoire suisse avec cette méthode. Ce n'est donc qu'avec l'avènement de nouvelles techniques basées sur des images satellites, et plus encore dès lors qu'elles sont devenues gratuites (notamment avec Google Earth ProTM : Tsou et al., 2015) ainsi qu'avec les relevés LIDAR (Jaboyedoff et al., 2009 ; Tseng et al., 2015), mais qui ne permettent cependant pas de travailler sur une grande aire d'étude (Guzzetti et al., 2012), que la production d'inventaires est devenue plus aisée tout en réduisant le temps d'investigation et les ressources requises. Toutefois, malgré ces nouvelles techniques modernes, il est important de toujours combiner le travail à base d'imagerie et la prospection de terrain (e.g. Jarman et al., 2014). Figure 15 : Exemples d'inventaires de glissement en Europe. A : carte d'inventaire de glissements dans le sud de l'Appennin italien. D'après Santangelo et al. (2013) ; B : carte de susceptibilité de glissement à l'échelle européenne. D'après Günter et al. (2014) ; C : inventaire de Crosta et al. (2013) pour l'arc alpin.
Les
analyses
spatial
es demand
ent dans un premier
temps la construction d'un
inventaire
. Mais il est également nécessaire, d'avoir un
panel
très large de
données
relatives 45 aux facteurs préparatoires et ce
dans une
v
isée
comparative de l'ensemble
. L'usage du MNT est également important pour confronter la répartition des RVR avec certaines variables du relief (orientation et pente, notamment). C'est un des outils les plus connus et utilisés (e.
g
.
Hadji
et al., 2013) pour la compréhension de la ré
partition
des
RVR
et la production d'une
carte
de suscept
ibilité (Fig. 15, cf. 1.2.1). Figure 16 : Repérage de RVR par différentes méthodes. A, B, C : RVR du Friolin (Savoie) et son évolution. Modifié d'après Goguel (1989). D : images stéréoscopiques d'une RVR dans la vallée de Vallibierna (Pyrénées centrale, Espagne), d'après Guttiérez-Santolalla et al. (2005). E : couplage de méthodes stéréoscopiques et de relevés de terrain dans la vallée de l'Ubaye, d'après Moine (2008). 46
1.2.3 Les inventaires nationaux existants (France, Italie, Autriche, Suisse)
La recherche d'inventaire des glissements en Europe a commencé dès les années 1990 avec l'avènement des SIG (Dikau et al., 1996). Depuis plusieurs années, des efforts ont été faits pour construire des inventaires nationaux (Van den Eeckhaut et Hervás, 2012) sous la forme de bases de données vectorisées sur internet. Toutefois, il est difficile de faire une distinction claire entre des inventaires de glissements superficiels et des inventaires de glissements profonds. Le plus souvent, ces deux types d'inventaires sont mêlés au sein des bases de données. Pour la France, une base de données est développée depuis 1981 (BDMvt) et gérée par le BRGM depuis 1994 avec le soutien du ministère de l'environnement, du laboratoire des Ponts et Chaussées et l'ONF via le RTM. Cet inventaire recense les mouvements de terrain de manière homogène en indiquant les coordonnées géographiques et les dates pour chacun des glissements (Fig. 17A), d'où son utilisation fréquente pour l'étude de la répartition spatiale des glissements (e.g. Tatard et al., 2010 ; Wood et al., 2015). Notons cependant qu'il n'est pas un inventaire et une interprétation des glissements profonds mais seulement un inventaire glissements superficiels, éboulements, effondrements et coulées survenus depuis 1981. Seuls les glissements de masse déjà connus et étudiés sont cartographiés dans cette base de données comme cela est le cas pour l'éboulement de La Madeleine (Lanslevillard, Savoie) et du Claps de Luc en Diois (Drôme). La base de données italienne, en ligne depuis 2005 (IFFI project, Trigila et al., 2007 ; Trigila et al., 2010 ; Fig. 17B), est gérée par le gouvernement italien et couvre l'ensemble du territoire italien. Elle ne porte pas exclusivement sur des évènements datés mais également sur de la photointérprétation à partir d'images satellites et de documents historiques, au contraire de la base BDMvt en France. Actuellement, elle compte environ 460 000 sites répertoriés et comprend aussi bien des glissements superficiels que des glissements profonds. Figure 17 : Inventaires de glissements nationaux. A : BDMvt (base de données pour les mouvements de terrain) géré par le BRGM en France, URL : http://www.georisques.gouv.fr/dossiers/mouvements-de-terrain/carte#/dpt/73 ; B : Base de données d'inventaires en Italie (IFFI project), URL : http://193.206.192.136/cartanetiffi/carto3.asp?cat=39&lang=EN ; C : carte des RVR en Autriche, d'après Tilch et al. (2011). 48
En Autriche le projet GEORIOS a été entrepris dès 1978 en commençant par collecter et analyser des documents sur les risques naturels. Dès les années 2000, ce travail a été réalisé sous forme digitale sous le sigle « GEORIOS » (Georisiken Österreich) et mis sous SIG (Tilch et al., 2011). La base de données compte aujourd'hui plus de 30000 sites répartis sur toute l'Autriche (Fig. 17C). En raison de son accès restrictif, nous n'avons pas pu la consulter. Il est donc difficile d'établir si cet inventaire contient des glissements superficiels et/ou profonds. Pour la Suisse, la base de données, nommée « Infoslide », existe depuis 1996 et contient 317 sites les plus pertinents. Cette base de données ne semble pas encore achevée car Van den Eeckhaut et Hervás (2012) estiment qu'elle n'est complétée qu'à moins de 25% comparée à la base de données italienne, qui serait complète entre 75 et 100%. Toutefois, Noverraz (1990) a produit un inventaire des glissements de terrains et écroulements rocheux à partir des cartes topographiques suisses au 1/25 000 e. Toutes ces bases de données ne sont donc pas homogènes et ne sont pas construites de la même manière (Günter et al., ). Il semble néanmoins que les plus abouties soient celles de l'Italie et de la France (Van den Eeckhaut et Hervás, 2012). Notons cependant que la France serait déficitaire en terme de nombre de chercheurs face aux Italiens (Sassa et al., 2009). Elle compterait moins d'une dizaine de chercheurs travaillant sur cette thématique, alors que plus de 80 travailleraient sur cette problématique en Italie. De par l'hétérogénéité des bases de données, toutes ne s'occupent pas forcément des RVR. Toutes les bases de données, sauf peut-être celle de la Suisse qui référencie les sites les plus exceptionnels, référencent les glissements superficiels qui se produisent sur des sédiments d'origine glaciaire ou bien sur des alluvions (Günter et al., 2014). Dans le présent travail, les glissements superficiels ont été volontairement écartés. 1.2.4 Limites des inventaires de glissements
L'élaboration et la construction des inventaires de glissements peuvent comporter quelques difficultés et limites (Malamud et al., 2004) : • les localisations et les caractéristiques des RVR peuvent faire l'objet d'erreurs lors de la retranscription sur papier ou bien lors de la digitalisation directement sous SIG, en particulier pour les RVR dont les indicateurs morphologiques dans le paysage sont discrets et peuvent passer inaperçus. • les grosses bases de données prennent du temps à cartographier et à coder. En effet, si l'opération de codage est simple sous SIG, c'est un processus long pour un inventaire de plusieurs centaines de RVR. • dans de nombreux endroits, les glissements se produisent là où des mouvements similaires plus anciens ont eu lieu. Ainsi ils peuvent apparaître en clusters et il devient donc difficile d'établir avec certitude les contours exacts des glissements, car ceux-ci peuvent apparaître fortement imbriqués ou emboîtés. Dans de tels cas, le plus souvent pour des inventaires historiques, cela demande une manipulation manuelle et une part non négligeable d'interprétations pour déduire la géométrie d'un glissement. • les inventaires ne sont généralement pas complets car de nombreux processus peuvent les dissimuler ou les transformer, comme certains processus d'érosion hydrique, la végétation, ou bien l'urbanisation. 1.3 Les différentes classes de typologies existantes
Les inventaires de glissements sont généralement classés en fonction de typologies déjà construites (Guzzetti et al., 2012). En vue de comprendre et situer la construction de l'inventaire présenté dans ce travail et les choix opérés pour y parvenir (cf. 3.3), il est nécessaire de pouvoir avoir une vue d'ensemble sur les classifications majeures présentes 50 dans la littérature. Nous présenterons ici les typologies déjà existantes en effectuant une analyse critique des classifications sur lesquelles elles reposent.
1.3.1 Typologie synthétique (Varnes, 1978 ; Hungr et al., 2014)
Avant la typologie de Varnes (1978) (Fig. 18), il y avait autant de classifications qu'il existait de scientifiques travaillant sur les glissements selon Alexander (2008). Cette classification a permis de cadrer à l'échelle mondiale un classement, encore aujourd'hui largement admis et employé (Hungr et al., 2014).
Figure 18 : Classification de Hungr et al. (2014). Cette typologie est une amélioration de celle de Varnes (1978). La typologie de Varnes (1978), améliorée par Hungr et al. (2014), contient deux grandes catégories : le sol et la roche. Le présent travail étant centré sur des mouvements rocheux, les catégories de mouvements plus superficiels ne déplaçant que du sol ou du régolithe seront exclues. Cette typologie couvre globalement un large spectre de l'ensemble des glissements avec des types allant de la chute de blocs jusqu'aux mouvements de 51 déformations de versant en passant par les écoulements. Si cette typologie est synthétique, elle reste cependant floue en ce qui concerne la taille des RVR. En effet, il n'y a pas de notion d'échelle dans les classifications si bien que l'on ne connait pas si une classification peut aboutir à de simples éboulis ou bien à un éboulement de masse. On revient donc à se demander quel est le volume de roches qui est mobilisé et quelles sont ses incidences dans le paysage.
1.3.2 Typologie en contexte de parois abruptes, les fjords scandinaves (Braathen et al. 2004)
Dans le contexte des fjords norvégiens et sur des lithologies aussi différentes que des schistes, des gneiss, des phyllites et des marbres, la typologie de Braathen et al. (2004) se base essentiellement sur une classification des différents types d'éboulements (Fig. 19) :
Figure 19 : Classification en contexte
de
paro
i abruptes selon Braathen et al.
(2004)
. • les zones de chutes de pierres. Celles-ci sont visibles là où les pentes sont les plus fortes (Fig. 19A). Elles sont caractérisées par la séparation de blocs rocheux de la 52 zone source. Il y a rupture lorsque la force gravitaire surmonte les forces de friction. Les blocs peuvent varier de quelques m3 jusqu'à plusieurs milliers de m3. • les zones de glissements qui remanient des dépôts d'éboulements. Ceux-ci se rencontrent dans des lieux où les pentes sont comparativement plus faibles (< à 45°) et où les zones de faiblesse sont orientées subparallèlement à la pente (Fig. 19B). Le glissement se produit sur des plans de cisaillement sous-jacents réactivés. • les domaines complexes (Fig. 19C) font le plus souvent plus de 1 km2 et peuvent varier entre 20 et 100 mètres de profondeur. Ce domaine consiste en plusieurs blocs découpés par des failles ou cassures, et peut être caractérisé par une morphologie de surface chaotique, avec présence de déformations secondaires internes du type décrit par Agliardi et al. (2001). 1.3.3 Typologie basée sur la distance parcourue par la masse glissée (Jarman, 2006)
La typologie de Jarman (2006) a été construite en fonction de la variété des RVR se localisant dans les Highlands écossaises (Fig. 20) et met l'accent sur la distance parcourue par la masse glissée. Les 5 catégories proposées dans cette typologie sont des variantes de la typologie de Hutchinson (1988) et mettent l'accent sur la morphologie plutôt que sur les processus, étant donné, selon l'auteur, le manque de données et d'analyses pour reconstituer les processus de déformation. Le mode « cataclasmic » (Fig. 20A) et le mode « subcataclasmic » (Fig. 20B) sont des RVR qui ont atteint le pied du versant ou se sont propagées au-delà. Le mode « coherent / arrested » (Fig. 20C) correspond à une RVR semi-intacte en phase de mouvement très lent. Compte tenu de ses caractéristiques morphologiques, on peut confondre ce mode avec les RVR en compression et les RVR en extension (Fig. 10, cf. 1.1.1.3) mais que l'on peut néanmoins différencier. Les RVR en extension ont des escarpements de niches d'arrachements distinctes, tandis que les déformations de compression présentent peu ou pas d'escarpements de cette nature. Les RVR en extension ont souvent des fissures ou des petits grabens dans la partie supérieure. Pour finir, les masses en extension ont un caractère 53 irrégulier d'affaissement tandis que les zones en compression apparaissent pour se mouvoir de manière régulière. Figure 20 : Classification de Jarman (2006) reposant sur des critères de distance de déplacement de la masse glissée. 54
1.3.4 Typologie basée sur les facteurs préparatoires (Martinotti et al. 2011)
Cette classification se focalise sur la liste des différents facteurs susceptibles de favoriser les RVR (Fig. 21) : • le premier cas (a) est une RVR qui évolue en fonction de mouvements le long de plans de cisaillements préexistants, principalement parallèles au versant ou bien en fonction de tout autre plan tectonique. • le implique deuxième un cas (b) écoulement plastique où les déformations de versant sont contrôlées par une masse rocheuse relativement homogène sous l'influence de la gravité. Des lithologies spécifiques, comme les phyllites, et l'absence de plan de cisaillement sont des traits distinctifs de cette classe. • le troisième cas implique une dissolution profonde et est en lien avec les ruptures de surface. • le quatrième cas (d) est Figure 21
:
Classification de Martinotti et al. (2011) basée sur les facteurs préparatoires
.
similaire au premier mais est également partiellement dirigé par l'activité néotectonique • le dernier cas (e) implique une combinaison de deux ou plusieurs des mécanismes mentionnés précédemment. Cette classe est commune dans les environnements alpins en 55 raison de l'interaction des évolutions structurales, de l'activité néotectonique et des processus géomorphologiques. Cette classification ne répertorie toutefois que les RVR de type DSGSD (Dramis et Sorriso-Valvo, 1994). Elle a également été élaborée à partir d'observations et inventaires effectués dans la vallée d'Aoste, et la réflexion sur les facteurs préparatoires a pour objectif de transposer cette typologie à d'autres vallées et d'autres contextes montagneux. 1.3.5 Synthèse : typologie construite en fonction de l'objet d'étude et de la zone d'étude
D'après les différentes typologies présentées, il semble que les classifications sont adaptées à des contextes géomorphologiques bien distincts et peut-être dans une certaine mesure à une valeur régionale. Cette autochtonie des classifications, et donc souvent aussi des théories concernant les causes et les mécanismes des RVR, est généralement admise par leurs auteurs, comme par exemple déjà précisé par Milliès-Lacroix (1981) qui reprend les typologies existantes de l'époque. Néanmoins la classification de Varnes (1978) paraît être la plus consensuelle pour une typologie classique sur les différents types de RVR. Il n'en apparaît cependant pas moins fécond de pouvoir combiner plusieurs classifications pour caractériser une RVR donnée afin de pouvoir élaborer une analyse spatiale s'appuyant sur le plus large spectre possible de caractérisations. 1.4 Facteurs d'occurrence des RVR selon les facteurs endogènes et exogènes
Les facteurs préparatoires et déclenchants peuvent être très nombreux, comme le soulignent Jaboyedoff et al. (2011). La différence entre facteurs préparatoires et facteurs de déclenchement n'est pas faite ici car, si à l'échelle locale, il est relativement facile de pouvoir mettre en lumière l'importance d'un facteur dans le déclenchement d'une RVR (dégradation du pergélisol ou séisme, par exemple), cela est nettement moins aisé à l'échelle régionale et en particulier dans les Alpes. En effet, à cette échelle, analyser une répartition spatiale des RVR fait appel à une approche multifactorielle. Les facteurs comme la dégradation du pergélisol, les évènements climatiques violents, ou bien le facteur sismique sont souvent 56 présentés comme déclenchants dans la littérature, mais il faut faire l'hypothèse qu'aucun de ces facteurs ne présente à priori une importance plus grande qu'un autre dans le contexte de la chaîne des Alpes. En effet, ce n'est pas une chaîne de montagnes frappée par de fréquents et puissants séismes ou de violents typhons, et où donc les causalités et l'intensité de leur signal seraient sans équivoque. Si la littérature admet que certains paramètres sont déclenchants, notamment la pluviométrie (Guzzetti et al., 2004), il est difficile de prouver à l'échelle régionale - et sans étudier un facteur unique - que les RVR ont été déclenchées par un seul processus. Des facteurs déclenchants, comme les séismes, peuvent être préparatoires et constituer une cause directe ou un forçage à l'échelle régionale. Si des séismes de forte magnitude peuvent quer quelques milliers de glissements cosismiques dans certains contextes (Hovius et al., 2011), ils peuvent aussi préparer le versant à la rupture dans des contextes de plus faible sismicité. Une série des séismes pourra ainsi fragiliser les masses rocheuses, mais des fortes pluies ultérieures et sans aucun lien causal seront responsables du déclenchement proprement dit des RVR. Pour toutes ces raisons et caractéristiques de la chaîne alpine, il n'est pas possible de différencier aisément les facteurs déclenchants avec les facteurs préparatoires. Il sera toutefois énoncé si les facteurs sont considérés comme une cause ou un forçage. Pour plus de simplicité pour le lecteur, il sera néanmoins différencié les facteurs endogènes de ceux exogènes dans l'occurrence des RVR. 1.4.1 Les facteurs endogènes 1.4.1.1 La lithologie : susceptibilité des masses rocheuses à la rupture
Il est reconnu que la lithologie joue un rôle important dans la formation des paysages (Stutenbecker et al.,2016) mais influe également sur l'occurrence et la répartition des RVR (Xu et Xu, 2014 ; Henriques et al., 2015 ; Blondeau et al., 2016). Néanmoins, en fonction de l'objet d'étude et quand on s'intéresse à la susceptibilité lithologique, les résultats peuvent varier entre glissements de type RVR et glissements superficiels. En utilisant les bases de données nationales européennes (Fig. 17, cf. 1.2.3), Günter et al. (2014) ont observé que la grande majorité des glissements superficiels se produisaient sur des marnes, des schistes ou 57 bien sur des sédiments fluviatiles, fluvioglaciaires, ou glaciaires. La littérature s'intéressant aux glissements de type RVR donne un constat quelque peu différent. Tout d'abord, les RVR ont déjà été observées dans toutes les variétés existantes de lithologies, donc les roches métamorphiques, sédimentaires, plutoniques et volcaniques (McCalpin et Irvine, 1995). De très grands glissements peuvent se produire dans des roches sédimentaires (e.g. Pedersen et al., 2002 ; Baron et al., 2004 ; Delgado et al., 2011 ; Pánek et al., 2012 ; Zerathe et Lebourg, 2012 ; Micu et Bălteanu, 2013 ; Chalkias et al., 2014 ; Zerathe et al., 2014) ou bien dans des roches métamorphiques (e.g. Braathen et al., 2004, Guttiérrez-Santolla et al., 2005 ; Evans et al., 2006 ; Strozzi et al., 2010 ; Le Roux, 2011 ; Jomard et al., 2013 ; Agliardi et al., 2013 Malgré la profusion des RVR dans les aires de montagne et les proportions différentes de différentes lithologies formant des affleurements, il existe une certaine unanimité dans l'idée que ce sont les roches métamorphiques (principalement les métasédiments avec les schistes et micaschistes, rarement les orthogneiss) qui sont les plus vulnérables aux RVR (e.g. Vengeon et al., 1999 ; Hewitt, 2009 ; Tsou et al., 2015 ; Blondeau et al., 2016). Concernant les roches granitiques, les auteurs s'accordent sur la rareté des RVR sur ces roches (Jarman, 2006 ; Blondeau et al., 2016). La pétrographie des roches n'est malgré tout pas un critère suffisant en soi pour expliquer la répartition des RVR : l'état d'altération (hydrothermale ou météorique) et l'intensité de la fracturation des matériaux dans toutes les directions de l'espace est un paramètre majeur qui détermine le style de déformation. 1.4.1.2 La structure géologique 1.4.1.2.1 Joints de stratification et rugosité
L'alternance entre couches lithologiques peut également avoir un effet sur l'apparition de RVR. En effet, l'alternance de couches différentes, à travers les joints de 58 stratification, peut jouer un rôle dans la mise en mouvement d'une masse rocheuse dont la cicatrice d'arrachement se situe au niveau d'un contact lithologique. Par exemple, Bourgeat (1990) a noté que les éboulements se produisaient au niveau de contacts géologiques là où les roches sont fissurées, diaclasées ou traversées par des failles. Dans des roches sédimentaires, la plupart des RVR sont causées par l'alternance de lits ayant des propriétés différentes. La présence de joints de stratification entre les roches est le défaut de rupture rocheuse le plus souvent rencontré (Kliche, 1999). Ils contribuent également, lorsque ceux-ci sont ouverts, à la libre circulation des eaux, favorisant le taux de décomposition des masses rocheuses et augmentant ainsi le potentiel de rupture. La présence de joints de stratification et plus globalement lorsque le pendage est fort peuvent favoriser la rupture brutale, comme ceci a été le cas pour la RVR du Vaiont (Fig. 22). Toutefois, le paramètre de la rugosité du joint de stratification peut également jouer un rôle dans la rupture (Holmes, 1984). En effet, si la surface du joint est rugueuse, la résistance à la rupture sera plus forte et des taux de tension supérieurs à ce que l'on pourrait trouver dans un contexte de non-rugosité sera nécessaire pour déclencher une rupture rocheuse. La rupture rocheuse selon les joints de stratification est également sensible à l'angle de frottement de ce joint. En effet, la rug ité accentue la résistance à la rupture mais plus l'angle de frottement est fort, plus la force de rupture sera importante face aux forces de rugosité des joints de stratification. 1.4.1.2.2 Pendage local et plan de glissement
Si le pendage des couches est fort, et notamment parallèle ou de même sens que le versant lui-même (daylighting beds), l'alternance de lits aux propriétés pétrographiques différentes peut jouer un rôle déterminant car certains lits situés en profondeur peuvent, par exemple, s'avérer être favorables à la dissolution (Martinotti et al., 2011) : les départs de matière en profondeur par dissolution provoquent des hétérogénéités internes à la masse rocheuse, ce qui peut aboutir à déstabiliser le versant. 59
Figure 22 : RVR du Vaiont en lien avec la structure géologique et l'échelle de rugosité. a : échelle macro, vue du synclinal à échelle globale (MS : synclinal de Massalezza ; ES : synclinal de Erto) ; b : échelle méso, modèle à échelle moyenne ; c : plis parasitaires ; d : échelle micro avec présence de petites concrétions. CT : Faille du col de Tramontin ; CE : faille du col delle Erghene. D'après Stead et Wolter (2015).
Le pendage que l'on peut observer sur les flancs des vallées peut diriger le mode de rupture des masses rocheuses. En effet, selon Kliche (1999), quatre modes de ruptures peuvent être observées : rupture planaire (planar failure), rotationnelle (rotational failure), en coin (wedge failure) et le basculement (toppling failure) (Fig. 23). Dans le cas d'une rupture en coin (wedge failure) (Fig. 23A), la possibilité d'une rupture existe lorsque deux discontinuités sont obliques sur la face du versant et que la ligne des intersections apparaît sur la surface. Il y aura ainsi rupture que dans les cas où 60 l'inclinaison de la ligne d intersection soit significativement supérieure à l'angle de frottement. Figure 23 : Principaux modes de rupture rocheuse en relation avec la structure. A : rupture en coin (wedge failure) ; B : rupture planaire (planar failure) ; C : rupture rotationnelle (rotational failure) ; D : rupture en basculement (toppling failure). Modifié d'après Kliche (1999).
Dans le cas d'une rupture planaire (planar failure) (Fig. 23B), le mouvement est généralement contrôlé structurellement par la faiblesse de la surface rocheuse comme les failles, les joints, les plans de stratification et les variations à la résistance au cisaillement entre les couches de dépôts stratifiés ou par le contact entre le substratum rocheux et des roches altérées sous-jacentes. Une rupture rotationnelle suggère une rotation autour d'un axe parallèle à la pente (Fig. 23C). Cependant, une surface de rupture strictement circulaire est assez rare car, fréquemment, la forme de la surface est contrôlée par la présence de discontinuités préexistantes telles que des failles, joints et d'autres zones de cisaillement. Les ruptures rotationnelles se produisent le plus fréquemment dans des matériaux homogènes ou des 61 roches argileuses, tels que les remblais et les masses rocheuses fortement fracturées ou composées de multiples joints de stratification. La rupture en basculement (toppling failure) (Fig. 23D) se produit lorsqu'un bloc, porté par son poids et reposant sur un plan incliné, tombe vers la base du versant. Ce type de rupture peut survenir dans des contextes rocheux lités. Localement, le potentiel au glissement par plan (daylighting beds), peut favoriser la production de déstabilisation de type RVR. En effet, lorsque les roches d'un versant d'une vallée ont un fort pendage, cela peut se transformer en rupture brutale. Lorsque nous sommes en présence de roches sédimentaires, les joints de stratification peuvent favoriser la rupture. Un exemple de ce type se trouve au Claps de Luc-en-Diois où le fort pendage (28° dans la partie basse) est considéré comme un facteur déterminant dans la préparation de l'éboulement (Couture et al., 1997). Il est cependant important de mentionner qu'un plan de glissement ne devrait pas être considéré comme standard. De nombreux cas, et en particulier les déformations, ont plusieurs surfaces de ruptures. Certaines sont simples et d'autres complexes. L'éboulement de Randa (Eberhardt et al., 2004) qui est tombé en deux épisodes et en relation avec deux grands plans de glissement (Fig. 24) mais qui ne correspondent pas à la structure rocheuse du versant en est un exemple. 1.4.1.2.3 Failles majeures (vision régionale)
La structure géologique d'un massif est importante dans la possible apparition d'une RVR (Chen et al., 2005 ; Stead et Wolter, 2015). La présence de déformations profondes peut favoriser le glissement. Par exemple, la rive gauche de la Tinée (France) est caractérisée par un glissement actif depuis les années 1950, et des études ont montré que les déformations gravitaires sont distribuées le long d'axes structuraux hérités des déformations tectoniques géologiquement anciennes (Bois et al., 2008 ; Tric et al., 2012). Partout où des RVR sont observées, on note des structures géologiques qui ont une importance capitale dans la compréhension structurale du massif. Ainsi, dans l'ouest du Venezuela, sur la faille active de Boconó, Audemard et al. (2010) montrent l'importance de la structure et la présence de 62 failles dans l'apparition de RVR. Le constat est le même dans les fjords norvégiens (Blikra et al., 2006) ou bien le long d'une faille active en Italie centrale (Gori et al., 2014).
Figure 24 : Schéma de l'éboulement de Randa montrant les plans de glissement et les deux éboulements qui sont survenus en avril et mai 1991. Extrait de Eberhardt et al. (2004). La structure géologique est donc importante, et particulièrement pour les couches sédimentaires qui sont capitales pour l'occurrence des RVR en domaine sédimentaire (Stead et Wolter, 2015) car les plis, les synclinaux et les failles passant au travers des versants peuvent déclencher des RVR parfois catastrophiques. Ceci a notamment été le cas pour le glissement de Vaiont en Italie en 1963 (Fig. 22) où le plan de glissement n'a pas seulement été affectée par deux générations de plis régionaux mais également par des ripples marks d'ordre centimétriques. Stead et Wolter (2005) suggèrent que les structures sédimentaires telles que les concrétions et les ripple marks peuvent également avoir une influence sur la rugosité locale ou à micro échelle, et donc affecter le comportement global de la pente de la roche. 63 Tout comme la lithologie, le facteur structural peut être considéré comme étant un forçage des RVR car il est intrinsèque au relief. Toutefois, à l'échelle d'un site, il peut être considéré comme une cause majeure comme cela a été le cas pour la RVR du Vaiont. 1.4.1.3 Les séismes
Une des réponses les plus violentes en lien avec la structure géologique sont les séismes. Ce paramètre peut ainsi être considéré comme un déclenchant majeur. Ils sont l'un des principaux agents de la génération de glissements et la cause de plusieurs milliers lors d'un seul évènement (e.g. Keefer, 1984 ; Keefer, 2000 ; Hovius et al., 2011 ; Sun et al., 2012 ; Tatard et Grasso, 2013 ; Xu et Xu, 2014 ; Xu et al., 2015) (Fig. 25). Si ce n'est Sun et al. (2012), l'ensemble des travaux cités utilise des magnitudes en moment sismique (Mw) et non en fonction de l'échelle de Richter (ML). D'après Evans et al. (2006) les plus grosses RVR ont été provoquées par des secousses sismiques. Par exemple, la RVR de Usoi, produite en 1911 dans le Tadjikistan et qui fait suite à un séisme de ML = 7,4, a entrainé la chute d'environ 2,2 millions de m3 de roches. Cependant, plusieurs nuances peuvent être apportées. Tout d'abord, cette relation est basée sur des évènements sismiques récents et historiques, ce qui se trouve être un arrêt sur image court dans le temps et peuvent ainsi ne pas être applicable aux Alpes, dans la mesure où il n'y a pas eu d'évènements majeurs (> à M L : 5) dans les Alpes occidentales. Une autre nuance qui peut être apportée consiste à dire que les RVR provoquées par la forte sismicité peuvent être en lien avec la tectonique et des forts taux de soulèvements mais également induites pas les fortes amplitudes de relief. Ainsi, Chen et al. (2017) ont montré que la distribution des glissements qui sont en relation avec le séisme de Ludian (Yunnan, Chine) (ML = 6,5) est corrélée avec les plus fortes amplitudes du relief (> 400 m). Avec l'accroissement de l'amplitude du relief, le possible volume mobilisé du glissement s'accroît. Enfin, il est important de noter que l'agent sismique n'explique pas la totalité des RVR mondiales car certaines se sont produites en dehors de tout contexte sismique. Cela a notamment été le cas pour le « Hope Slide » au Canada (Brideau et al., 2005), survenu en 1965 ou en Norvège (Redfield et Hermanns, 2016). 64 Figure 25 : Les avalanches rocheuses les plus importantes déclenchées par le séisme de Wenchuan en mai 2008. D'après Sun et al. (2012).
65 Plus l'intensité sismique est élevée, plus la masse rocheuse tombée ou glissée semble importante, comme cela a été le cas en Alaska en 2002 (Jibson et al., 2006) avec un séisme de Mw = 7.9 de magnitude, qui a provoqué plusieurs milliers d'avalanches rocheuses jusqu'à atteindre un volume total de près de 20 km3. Le séisme de Chi-Chien en 1999 à Taiwan (Mw = 7.6) (Chen et al., 2005) a provoqué une RVR de 0,125 km3 et un séisme préhistorique évalué à plus de M = 8 en l'Himalaya (Mitchell et al., 2007) a déclenché l'avalanche rocheuse de Keylong Serai de 0.9 km3 en Inde. Suite à des recueils de données sismiques à travers le monde, Keefer (1984) a évalué à M = 4 le minimum pour le déclenchement de RVR. Le lien entre processus tectoniques et RVR a déjà été mis en évidence dans plusieurs portions de chaînes de montagne du monde, que ce soit dans les Alpes néo-zélandaises (Allen et al., 2011), l'Himalaya (Fort, 2011), la chaîne andine (Hermanns et al., 2006 ; Audemard et al., 2010) ou bien les Alpes européennes (Tonini et al., 2014 ; Pedrazzini et al., 2015 ; Gosar, 2017). Néanmoins, sur l'arc alpin, le lien entre les séismes et les RVR n'est pas clairement démontré (e.g. Deparis et al., 2008) car la sismicité reste faible (cf. 2.2.3). Par exemple, selon Tatard et al. (2010), il n'y a pas d'augmentation significative des glissements superficiels mais également de type R pour la zone de Grenoble et du Val d'Arly en lien avec les séismes locaux. Pour Frayssines et Hantz (2006), il n'existe pas de corrélation entre RVR et séismes pour le déclenchement d'éboulements dans les parois rocheuses calcaires des Préalpes françaises. Toutefois, il semble que certains lieux, comme les ruines de Séchilienne, soient à mettre en partie au compte de l'activité sismique (Pothérat et Effendiantz, 2009) ou bien de l'association de deux facteurs : précipitations et séismes (Helmstetter et Garambois, 2010). Les Alpes sont donc connues pour avoir une sismicité relativement faible. Néanmoins, des études récentes sur les sédiments de certains lacs suisses (Kremer et al., 2017) montreraient la possibilité qu'il y ait pu se produire des séismes supérieurs à MW : 6,5 durant les 10 000 dernières années. 1.4.1.4 Les taux de soulèvements crustals et la contribution du rebond glacio-isostatique
Les modèles de soulèvements crustals dans les Alpes ont été l'objet de plusieurs études. Par exemple, Nocquet et al. (2016) montrent un modèle de soulèvement enregistrant environ 2,5 mm/an dans le NO des Alpes occidentales. Dans cette perspective de soulèvements régionaux qui s'avère ne pas être identique à l'échelle de l'arc alpin, Agliardi et al. (2013) ont proposé un modèle
Figure 26 : Modèle montrant la relation entre exhumation et occurrence des DSGSD dans les Alpes. HRT : taux haut d'hexumation ; HRC : exhumation rapide incluant un contrôle climatique fort ; IR : sous-région donnant des âges de traces de fission entre 10 et 40 Ma ; LR : sous-régions donnant des âges de traces de fission excédant 40 Ma. D'après Agliardi et al. (2013). spatio- temporel interprétatif de la relation entre RVR et les taux de soulèvements (Fig.
| 41,239
|
57/tel.archives-ouvertes.fr-tel-01402139-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,009
| 10,665
|
Spécialité de doctorat : Science des matériaux Discipline : Génie Civil Soutenue
publique
ment le 08/07/2016, par
:
Anne
H
ALLONET
Développement et c
aractéris
ation d'un matériau
composite
à base de fibre
s de lin
- Application
au re
nforcement
de
structures
en
bé
ton
par
collage externe
.
De
vant le jury
compos
é
de : Pr. Christophe BALEY Pr. Karim BENZARTI Pr. Brahim BENMOKRANE Dr. Marc AUDENAERT Université de Bretagne-Sud IFSTTAR University of Sherbrooke ARKEMA Pr. Emmanuel FERRIER Dr. Laurent MICHEL Université Lyon 1 Université Lyon 1 Directeur de thèse Co-Directeur de thèse Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. "Toute science crée une nouvelle ignorance." Henri Michaux Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Faculté de Médecine et de Maïeutique Lyon Sud – Charles Directeur : Mme la Professeure C. BURILLON Mérieux Faculté d'Odontologie Département de formation et Centre de Recherche en Directeur : Mme la Professeure A-M. SCHOTT Biologie Humaine UFR Sciences et Techniques des Activités Physiques et Directeur : M. Y.VANPOULLE Sportives Observatoire des Sciences de l'Univers de Lyon Polytech Lyon
i
Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Remerciements
Ce travail a été réalisé au Laboratoire des Matériaux Composites pour la Construction (LMC2) de l'Université Claude Bernard Lyon 1 dans le cadre du projet FIABILIN pour le développement du lin technique à fibres longues pour la production de composites de hautes performances sous le pilotage de ARKEMA. Mes remerciements vont d'abord à mon directeur de thèse, Pr Emmanuel Ferrier, directeur du laboratoire LMC2, et mon co-directeur de thèse, Laurent Michel, pour la confiance qu'ils m'ont manifestée en m'accueillant dans leur équipe, pour le temps qu'ils ont consacré au suivi de mes travaux ainsi que pour leurs relectures minutieuses des multiples présentations, articles et du présent manuscrit. Je remercie vivement les membres du jury, qui ont accepté d'évaluer mon travail et d'être présent pour ma soutenance ; le Professeur B. Benmokrane de l'Université de Sherbrooke, Monsieur M. Audenaert de l'entreprise ARKEMA, et aussi Monsieur K. Benzarti de l'IFFSTAR et le Professeur C. Baley de l'Université de Bretagne Sud pour la tâche de rapporteurs de thèse. J'exprime ma gratitude à l'ensemble des membres du laboratoire du LMC2 pour leur aide au cours de ces trois années, en particulier Laurence Curtil et Nadège Reboul pour leur intérêt et leur assistance dans mon travail ; Marie Michel pour son soutien et pour avoir été une voisine de bureau particulièrement agréable ; Bruno Jurkiewiez, Carmelo Caggegi, Sylvain Bel, Emma Lanoye, Aron Gabor et Vu Xian Hong pour leur collaboration quotidienne et leurs remarques pertinentes ; et les techniciens Emmanuel Janin et Norbert Cottet pour leur aide à la réalisation d'expériences. Un grand merci à Anissa Benyoub dont l'efficacité et la bonne humeur auront été un secours fidèle. Mes remerci vont aussi aux doctorants et masters du laboratoire qui ont partagé mon quotidien ; et à mes cousins et mes amis pour leur présence et leurs encouragements, pour les weekends d'aventure, les soirées animées et les discussions interminables, qui m'ont apporté du courage et beaucoup de souvenirs. Enfin, je remercie mes parents et ma famille qui m'ont soutenue, supportée et encouragée dans mes projets depuis 25 ans. Merci pour leur amour et leur confiance, c'est grâce à eux que je suis ici aujourd'hui et je leur en serai éternellement reconnaissante. Anne ii Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Afin de prolonger leur durée de vie et d'assurer la sécurité des usagers, les structures en béton peuvent nécessiter un renforcement au cours de leur durée de service. La technique de renforcement par collage externe, en surface, de composites renforcés de fibres de carbone, de verre ou d'aramide à l'aide de résines durcissant à température ambiante est largement employée pour son efficacité et sa facilité de mise oeuvre. Toutefois l'utilisation à la fois de fibres synthétiques et de matrices polymères produit un impact écologique non négligeable. L'objectif de ce travail de recherche est d'examiner la possibilité d'utiliser des fibres de lin pour le renforcement externe de structures en béton. Les propriétés mécaniques spécifiques et le bilan environnemental avantageux des fibres de lin en font une alternative intéressante aux fibres de verre. Cependant leur origine naturelle conduit à une plus grande variabilité des propriétés, à un comportement en traction non linéaire et une sensibilité accrue à l'humidité. Les principaux objectifs du travail de thèse portent ainsi sur la sélection des matériaux et la mise en oeuvre les plus adaptés, sur l'évaluation des performances du matériau et de son adhérence au support béton et sur une évaluation de la durabilité des propriétés du système. Dans une première partie expérimentale deux méthodes de mise en oeuvre du renfort à fibres de lin (stratification au contact et collage de lamelles rigides) sont développées et caractérisées. Des observations tomographies X confirment la bonne imprégnation des fibres et la cohésion des composites. Les essais de traction révèlent un comportement en traction bilinéaire comme décrit dans la littérature, avec des propriétés d'effort par largeur de bande comparables aux composites de renfort à fibres de verre La caractérisation des interfaces composite/béton menée par tests de cisaillement à double recouvrement confirme une bonne adhérence qui se traduit par une rupture cohésive dans le substrat béton. La nature des fibres ne semble pas influencer le comportement de l'interface. Les systèmes de renforcement à fibres de lin sont donc capables de reprendre des efforts transmis par cisaillement de façon comparable aux matériaux de renfort à fibres de verre. Dans une deuxième partie des essais exploratoires de durabilité ont ensuite été menés pour vérifier la pérennité des propriétés de ces deux composites de renfort dans un environnement de service. Mots-clés : renforcement béton armé, polymère renforcé par fibres de lin, FFRP, composite lin, durabilité. iii Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Title : Development and characterization of a flax fibers reinforced composite
Application to reinforcing concrete structures by external sizing. To extend their life and ensure the safety of users, concrete structures may need strengthening during their service life. The technique of strengthening by external bonding of composites carbon, glass or aramid composites using polymer that are cured at room temperature is widely used for its effectiveness and ease of implementation. Yet the uses of both synthetic fibers and polymer matrices have a significant environmental impact. The objective of this research is to examine the possibility of using flax fibers for the external strengthening of concrete structures. Their high specific mechanical properties and positive environmental balance make them an interesting alternative to the glass fibers. However, they also present a larger variability in properties, a non-linear tensile behavior and high sensitivity to humidity. The main objectives of this thesis involve the selection of the materials and the most suitable implementation, the evaluation of the materials' performances and adherence to concrete support and a sustainability assessment of those properties. In a first experimental section, two methods of implementation of the flax fiber reinforcement are developed and characterized: by wet lay-up and by bonding of pre-hardened. Tomography observations confirm the good fiber impregnation and cohesion of the composites. The tensile tests show a bilinear tensile behavior as described in the literature, with stress per width at failure comparable to glass fibres strengthening systems. The characterization of composite/concrete interfaces is conducted by double overlap shear tests and confirms a good adhesion which results in concrete failure before the failure of the reinforcement system. The nature of the fibers does not appear to influence the shear behavior of the interface. For glass or flax wet lay-up systems, failure can occur with failure of the composite. Flax fiber reinforcement systems can take up the forces transmitted by shear in a manner comparable to glass composites. In the second , sustainability tests were conducted to ensure the sustainability of the properties of these two composite reinforcements in a service environment. An artificial accelerated aging test in a climatic chamber is set up while wet lay-up flax fiber composites are exposed to the external environment during a year. A second hydrothermal aging test is conducted for 4 weeks at 70°C. Key-words: RC strengthening, Flax Fibre Reinforced Polymer, Flax composite, durability. iv Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Table des matiè res Remerciements ii Résumé en français iii Résumé en anglais iv Table des matières
v Introduction générale - 1 Partie 1 : Contexte - 1 1. Etat de l'art sur les renforcements de structures en béton par collage de matériaux composites. - 2
1.1 1.1.1 Principales causes conduisant au renforcement des
structures
en bé
ton
- 2 - 1.1.2
Le
collage de composites
parmi les
différentes méthodes
de re
nforcement
- 4 - 1.1.3 Mise en oeuvre des composites de renfort en Génie Civil - 7 - 1.2 Matrice polymère - 10 - 1.2.2
Les
fibres
de renfort - 13 - 1.2.3 Propriétés des
composite
s de
renfort
- 15
Cohésion et durabilité des composites de renfort collés - 18 - 1.3.1 Les interfaces d'un matériau composite : phénomènes de l'adhésion - 18 -
1.3.2 Interface entre support béton
/
composite
de
ren
fort
-
21
- 1.4 Bilan sur les composites de
ren
fort de structures en béton
-
23 - Composites renforcés par fibres naturelles de lin - 24
2.1 Généralités : Composites polymères r
enforc
és
par fibres végétales
- 24
- 2.1.1 Enjeux des fibres naturelles comme renfort - 24
-
2.1.2 Evolution des recherches sur les composites renforcés par fibres naturelles
- 27 - 2.2 Les fibres de lin techniques - 30 - 2.2.1 Que sont exactement les fibres de lin? - 30
-
2.2.2 Intérêts économique, écologique et mécanique des fibres de lin - 32 - 2.2.3 Structure micro et macroscopique des fibres de lin
- 36
-
2.3
Propriétés mécaniques des composites polymères renforcés par fibres de lin
- 38
-
2.3.
1
Propriétés mécaniques des fibres de lin
-
38
-
2.3.2 Propriétés de l'interface entre les fibres de lin et la résine époxy - 41 - 2.3.3 Réponse en traction statique des composites polymères époxy renforcés par fibres de lin.
2.3.4 Réponse en traction dynamique des composites époxy renforcés par fibres de lin Matériaux composites de renfort en Génie Civil - 10 - 1.2.1 1.3 2. Généralités : Renforcement par collage de composites. -
2 - Bilan sur les
composites
à
fibres de lin
- 50 -
Conclusion de l'étude bibliographique - 51 - v
Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures
en
béton par collage extern
e
. Partie 2 : Développement d'un renfort à fibres de lin pour le renforcement extérieur de structures en béton 53
1. Conception d'un matériau composite stratifié au contact à renfort fibres de lin longues - 54 1.1 Introduction - 54 - 1.2 Choix et caractéristiques des matériaux - 55 - 1.2.1 Caractéristiques des fibres de renfort - 55 - 1.2.2 Sélection de la résine par essais d'imprégnation - 58 - 1.2.3 Validation de la cohésion et adhérence sur béton des composites stratifiés au contact. - 64 - 1.3 1.3.1 Fabrication des plats composites à renfort de lin thermo-compressés - 67 - 1.3.2 Validation de la cohésion et adhérence des plats composites thermo-compressés - 69 - 1.4 2. Mise en oeuvre et caractérisation des composites à renfort de lin - 73 - 2.1.1 Préparation des composites - 73 - 2.1.2 Description de l'essai de traction directe - 74 - 2.1.3 Exploitation des essais de traction : calculs des modules, contraintes et efforts tensiles - 75 - 2.1.4 Détermination de la densité et de la porosité des composites - 77 - 2.2 Analyse des propriétés mécaniques des composites PRF lin en traction - 82 - 2.2.1 Reproductibilité des essais de traction sur composite stratifié au contact - 82 - 2.2.2 Influence du tissu de renfort sur les propriétés du composite stratifié au contact - 86 - 2.2.3 Analyse des propriétés des composites lin préfabriqués par thermo-compression - 93 - 2.3 Loi de comportement en traction du composite - 94 - 2.3.1 Détermination des expressions simplifiées en traction longitudinale - 94 - 2.3.2 Calculs prédictifs des propriétés mécaniques longitudinales - 95 - Caractérisation de l'interface béton-composite - 100 3.1 Etude bibliographique : essais de caractérisation de l'interface béton-composite - 100 - 3.1.1 Synthèse des essais de l'interface composite/béton en cisaillement - 100 - 3.1.2 Synthèse des modèles prédictifs de la contrainte à rupture. - 108 - 3.2 Procédure d'essai de travail de l'interface en cisaillement - 113 - 3.2.1 Mise en oeuvre et instrumentation des essais de cisaillement à double recouvrement - 113 - 3.2.2 Méthode d'exploitation de l'essai de cisaillement à double recouvrement - 116 - 3.3 Comportement en cisaillement de l'interface béton-composites lin - 117 - 3.3.
1 Adaptation du dimensionnement de l'essai de cisaillement
-
117
- 3.3.2 Caractérisation de
l'interface béton/ composites
à
3.4
4. Détermination des températures de transition vitreuse - 70 - Analyse du comportement des composites à fibres de lin - 73
2.1 3. Comparaison avec un composite à fibres de lin rigide préfabriqué par thermocompression. - 67 - Comparaison des résultats en cisaillement et détermination d'une loi de comportement. - 129 Modèles prédictifs à rupture en cisaillement - 134 - 3.4.1 Choix des modèles prédictifs en cisaillement retenus - 134 - 3.4.2 Résultats des modèles prédictifs - 136
-
Conclusion de la partie II - 140 - Partie 3 : Durabilité des composites de renfort à fibres de lin. - 143
1. Introduction - 144 - vi
Développement et caractérisation d'un matériau composite à base de fibres de lin
- Application au renforcement de structures en béton par collage externe
. 2. Impact du vieillissement sur les matériaux composites - 145 2.1 2.1.1 Vie
illissement des polymères
: mé
canism
es de dégradation - 145 - 2.1.2 Vie
illissement
des
FRP
de ren
fort
en génie civil - 150 - 2.1.3 Vieil
lissement
des composites à matrice polymère et renfort de fibres naturelles. - 155 - 2.2 3. Etude ographique : vieillissement des composites à matrice polymère - 145 - Choix des essais de vieillissement - 159 - Impact du vieillissement climatique - 161
3.1 Vieillissement climatique naturel - 161 - 3.1.1 Mise en place du vieillissement climatique naturel - 161 - 3.1.2 Influence du vieillissement naturel sur les propriétés mécaniques des composites - 163 - 3.1.3 Influence du vieillissement naturel sur la structure interne des composites - 165 - 3.1.4 Influence du vieillissement naturel sur l'interface composite-béton - 166 - 3.2 Vieillissement artificiel en enceinte climatique - 170 - 3.2.1 Mise en place du vieillissement artificiel en enceinte climatique - 170 - 3.2.2 Influence du vieillissement artificiel en enceinte climatique sur les propriétés des composites - 174 3.2.3 Influence du vieillissement climatique artificiel sur la structure interne des composites - 182 - 3.2.4 Influence du vieillissement climatique artificiel sur l'interface composite-béton - 183 - 3.3 3.3.1 Comparaison des vieillissements climatiques naturel et accéléré en enceinte - 185 Comparaison des propriétés mécaniques résiduelles après les différents vieillissements climatiques - 185
3.3.
2
3.4 4. Conclusion des essais de vieillissements climatiques - 189 - Détermination des propriétés résiduelles limites du composite de renfort lin
- 191
4.1 5. Evolution des transitions vitreuses des composites lors des vieillissements climatiques - 186 - Vieillissement hygrothermique - 191 - 4.1.1 Mise en place du vieillissement hygrothermique - 191 - 4.1.2 Influence du vieillissement hygrothermique sur les propriétés des composites - 192 - 4.1.3 Influence du vieillissement hygrothermique sur la structure interne du composite lin - 196 - 4.1.4 Influence du vieillissement hygrothermique sur l'interface composite/béton - 197 - 4.2 Comparaison des résultats des différents environnements de vieillissement - 203 - 4.3 Détermination de facteurs de sécurité - 205 - Conclusion de la partie III. - 211 - Conclusion générale et Perspectives - 213 Références - 217 ANNEXES - 233 - vii Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. viii Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Introduction gé né rale
La réparation et la maintenance des ouvrages en béton représentent actuellement un réel enjeu technico-économique. Une infrastructure moderne et efficace est essentielle à la compétitivité et à la productivité de l'économie. La qualité de vie et la sécurité de la population, mais aussi le développement des entreprises au sein du pays dépendent de la qualité des infrastructures telles que les bâtiments, les routes, les voies ferrées, les centrales électriques et les réseaux de communications (Lawson 2013). Or toute infrastructure se détériore au cours du temps. Les propriétés mécaniques des matériaux de construction subissent une dégradation difficilement prévisible sous les contraintes environnementales. Lors de la durée d'exploitation des ouvrages, les changements d'utilisation peuvent amener une évolution des sollicitations pour lesquelles l'ouvrage n'a pas été conçu ; sans oublier les possibles accidents tels que les séismes. Ce défi s'inscrit de plus dans un contexte de vieillissement des infrastructures publiques et privées. Les ouvrages construits après les deux guerres furent conçus pour une durée de vie de 30 à 50 ans. De plus des études menées dès les années 1980 confirment une accélération de la dégradation du béton comparée à 20 ou 30 ans auparavant (Hémon 1994). Il devient donc primordial aujourd'hui de s'inquiéter de leur état et de leur conformité aux nouvelles normes de sécurité et environnementales toujours plus exigeantes. Pour une question de coûts mais aussi de développement durable, là où il était courant de démolir pour mieux reconstruire, se développe aujourd'hui une approche de réhabilitation et de maintenance. Parmi les méthodes de renforcement, l'utilisation de composites collés en surface des ouvrages à l'aide de résines époxy durcissant à température ambiante est une technique largement employée pour efficacité et sa facilité et rapidité de mise oeuvre (Hamelin 2002). Ces composites sont renforcés de fibres synthétiques de carbone, verre, aramide et plus récemment de basalte. Ces fibres jouent le rôle d'armature extérieure. Ces 30 dernières années ont vu émerger de très nombreuses études pour optimiser et améliorer la fiabilité de cette méthode de renforcement. Toutefois bien que le renforcement des ouvrages permette de prolonger leur durée de service, l'utilisation à la fois de fibres synthétiques et de matrices polymères produit un impact environnemental non négligeable. De par son impact environnemental certain, le génie civil joue un rôle central dans la promotion et la croissance du développement durable. tablette arrière, dossier de siège), l'aéronautique, coque de bateau ou la plasturgie. La substitution des fibres végétales aux fibres synthétiques présente des avantages techniques et environnementaux, notamment grâce à leur caractère renouvelable et à leur faible densité. L'utilisation des fibres naturelles se limite toutefois majoritairement à des applications non structurelles. La méconnaissance des performances de ces fibres végétales freine la prise de risque des industriels pour qui l'étiquette naturelle n'est pas toujours synonyme de performance et de durabilité. La France est le premier producteur européen de lin et de chanvre. Le gouvernement français soutient les projets de recherche visant à développer ces filières agricoles et les innovations techniques associées afin d'améliorer la compétitivité nationale et le développement durable. Le projet FIABILIN est l'une de ces initiatives. Ce consortium de 15 partenaires, représente des acteurs de la filière de production du lin, des laboratoires de recherche ainsi que des industriels du domaine de l'automobile, de l'aéronautique, du nautisme et du bâtiment. Le projet piloté par l'entreprise de chimie ARKEMA vise à développer la filière du lin technique à fibres longues pour la production de composites de hautes performances en substitution des matériaux composites comportant des fibres de verre ou de carbone. C'est dans ce contexte que s'inscrit la présente thèse menée au sein du laboratoire LMC2 portant sur l'étude technique d'un matériau composite à fibres de lin pour le renforcement extérieur de structures en béton. Les enjeux du programme de recherche portent sur le déblocage des principaux verrous limitant l'utilisation des matériaux bio-composites dans la construction : l'évaluation de la performance, de la durabilité et de la fiabilité du nouveau procédé constructif. Est-il pertinent d'envisager l'utilisation des fibres de lin pour le renforcement extérieur de structures en béton? Les principaux objectifs portent ainsi sur la sélection des matériaux et la mise en oeuvre les plus adaptées, sur l'évaluation des performances du matériau et de son adhérence au support béton et sur une évaluation de la durabilité des propriétés.
-2- Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe.
Partie 1 : Contexte -1- Partie 1 : Contexte 1.
Etat de l'art sur les renforcements de structures en béton par collage de matériaux composites. Le but de cette étude est de tester la possibilité d'utiliser les fibres de lin pour le renforcement de structures en béton par collage extérieur de composites renforcés de fibres. Dans un premier temps un état des lieux des connaissances sur les composites de renfort actuellement utilisés et commercialisés est fondamental afin de comprendre les éléments à satisfaire pour le développement du nouveau matériau. En vue d'analyser la spécificité des fibres de lin comme renfort, une revue de l'utilisation des fibres de lin comme renfort de composites est ensuite effectuée. Les propriétés des fibres de lin et des composites lin à matrice polymère obtenus par différents auteurs sont analysés. 1.1 Généralités : Renforcement par collage de composites. 1.1.1 Principales causes conduisant au renforcement des structures en béton
Le béton est actuellement le matériau le plus consommé au monde, juste après l'eau, avec une consommation moyenne par habitant de la planète de 1 m3 par an (Cudeville 2011). Il s'agit d'un matériau de construction fabriqué d'un mélange de sable et gravillons agglomérés par un liant. Le liant le plus couramment utilisé consiste en un mélange d'eau et de ciment, un mélange de chaux, de silice et d'alumine. Le ciment réagit avec l'eau et forme une pâte, qui après durcissement est stable à la température et à l'eau. Les avantages du béton proviennent de l'abondance des matières premières nécessaires et de leurs faibles coûts, mais aussi et surtout de sa technique de mise en forme coulable. Le béton peut ainsi prendre de façon simple, rapide et économique les formes les plus variées, en grande quantité tout en présentant des propriétés élevées. Comme les pierres qui le composent, le béton est un matériau fragile et peu résistant à la traction. De plus le béton est un matériau naturellement fissuré, ce qui réduit encore ses propriétés en traction. En effet lors de la phase de prise et de durcissement du béton, qui passe d'un état liquide à solide, la réaction exothermique de la prise du ciment hydraté et du retrait de l'eau libre, nécessaire à sa maniabilité lors du coulage, se traduit aussi par un retrait dimensionnel du béton. La résistance à la traction est 6 à 10 fois plus faible que la résistance à la compression, de l'ordre de 3 MPa. Dans les codes de calculs de l'Eurocode 2 (EC2), la directive européenne qui définit les principes généraux calcul des structures en béton, la résistance en traction du béton est même négligée, sauf dans le cas des calculs de limite d'ouvertures de fissures afin d'assurer la protection des armatures à la corrosion. Le béton présente par contre un très bon comportement mécanique à la compression. Cependant ce comportement à la compression est fragile, ce qui signifie que la rupture se produit sans déformation importante au préalable souvent de l'ordre de 3,5 ‰. Une rupture fragile est un danger pour l'usager car aucun phénomène précurseur à la rupture ne peut être décelé à l'oeil nu afin d'appréhender une défaillance (Sieffert 2010). -2- Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par
collage externe.
Les constructions en béton se heurtent donc aux difficultés que représentent les efforts internes de traction tels que dans les poutres horizontales qui travaillent toujours en flexion, ce qui conduit obligatoirement à des contraintes de traction et de compression dans une section, ou les poteaux soumis à l'effort interne de Poisson. C'est pour pallier cette insuffisance que fut développée l'idée d'ajouter aux zones soumises à des efforts de traction, une armature métallique, résistante à la fois à la compression et à la traction. De plus les armatures longitudinales, par adhérence avec le béton, permettent de coudre les fissures et limitent ainsi leur propagation et leur ouverture. Figure 1 : Béton armé, illustration de poutre armée, et Comportement en traction du béton armé.
Malgré le renforcement intérieur par des armatures métalliques, les structures en béton peuvent nécessiter un renforcement structurel supplémentaire pour plusieurs raisons :
x
Dégradation physico-chimique : Les propriétés mécaniques du béton et des aciers sont susceptibles de se dégrader selon différents phénomènes physico-chimiques, entraînant une diminution progressive de sa capacité structurelle. La silice issue du ciment est susceptible de se dissoudre et de réagir avec les ions alcalins de la solution interstitielle selon une alcaliréaction générant des gels expansifs, ce qui provoque une destruction localisée du béton (Godart 1995). Avec le temps le béton subit une carbonatation par le dioxyde de carbone CO2 présent dans l'air qui se dissout dans la solution interstitielle en réagissant avec les ions déjà présents, principalement avec les ions calcium Ca2+ issus de la chaux Ca(OH)2. Cette modification amène une diminution du pH, qui peut atteindre des valeurs inférieures à 9 dans les zones dégradées et ainsi conduire à la corrosion des armatures. La baisse de pH engendre une dépassivation des aciers qui ne sont plus protégés par un film d'oxydes métalliques et peuvent s'oxyder complètement (rouille). Outre la dégradation des propriétés mécaniques des armatures, les oxydes de fer qui se forment peuvent atteindre jusqu'à huit fois celui de l'acier, ce qui provoque l'éclatement du béton entourant les armatures et l'apparition de fissures longitudinales (Baroghel-Bouny 2005). L'action de l'eau est aussi un facteur d'endommagement. Les eaux de pluie, toujours acides et contenant des sulfates et des ions alcalins, dissolvent chaux accentuant la carbonatation, tandis que les ions alcalins participent au phénomène d'alcali-réaction. Sous l'action des cycles de gel-dégel, l'eau infiltrée dans les porosités se transforme en glace et gonfle, ce qui génère des contraintes internes et crée des fissures. -3- Partie 1 : Contexte
Figure 2: Schéma de la corrosion des armatures du béton armé (Baroghel-Bouny 2005).
x Causes accidentelles : Les abrasions et les chocs, tels que les projections de graviers sur le long des routes, ou même l'impact des particules emportées par le vent, contribuent à la fragilisation des couches supérieures du béton. Ces frottements détériorent la surface du béton, pouvant à terme mettre à nu les armatures et accélérer la corrosion (Hamelin 2002). Des causes accidentelles comme un incendie ou une collision de voiture, ou des actes de vandalisme peuvent aussi affecter l'intégrité de l'ouvrage. x Erreurs de conception : Des erreurs de conception ou d'exécution ne sont malheureusement pas toujours évitées. Elles induisent un mauvais dimensionnement des sections et des dispositions non idéales des armatures, ce qui cause lors du fonctionnement de l'ouvrage des fissures ou des ruptures dangereuses dès les premiers stades de la vie de la structure. Les erreurs d'exécution peuvent être causées par des imperfections de coffrage du béton, des incohérences de ferraillage, des défauts de bétonnage ou de décoffrage. x Evolution des conditions d'utilisation : Les conditions d'utilisation des ouvrages peuvent évoluer au niveau de la portance ou de la fréquence ; une évolution de trafic pour un pont, ou changement d'usage d'un bâtiment par exemple. Continuer l'exploitation de tels ouvrages sans réhabilitation peut mener à des dégâts similaires à ceux d'une mauvaise conception et se révéler dangereux pour les usagers. Le respect des nouvelles normes à respecter pour assurer la sécurité des usagers peut nécessiter une réhabilitation (Marouani 2007).
x Renforcement préventif au risque
sismique : Le renforcement peut aussi être nécessaire dans des zones à fort risque sismique principalement pour des structures présentant un risque élevé pour les populations comme les barrages ou une centrale nucléaire ; ainsi que les hôpitaux ou les ponts.
1.1.2 Le collage de composites parmi les différentes méthodes de renforcement
La maintenance assure ensuite plusieurs objectifs : x Protéger les structures pour remédier aux causes de désordres, x Réparer les ouvrages pour les remettre en état en compensant les pertes des propriétés mécaniques, x Renforcer les structures en améliorant les performances mécaniques afin d'augmenter la durée de vie de l'ouvrage, de le mettre aux normes dans le cas de conditions d'utilisation modifiées ou d'éviter de nouvelles dégradations après réparation.
-4- Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. Dans les cas les plus simples la maintenance peut consister en un ragréage par une couche de peinture ou de mortier, ou une injection de coulis ou de résine d'injection pour colmater une fissure. En présence de couches endommagées, celles-ci doivent d'abord être réparées avant de pouvoir consolider l'ouvrage. Si corrodées, les armatures doivent être nettoyées, voire protégées par protection cathodique. Les zones de fissures font l'objet d'injection de polymères à faible viscosité. Des opérations de ragréage par application de peinture ou de mortier hydraulique ou polymère sont souvent nécessaires pour reconstruire les zones détériorées. Dans les cas plus sévères où un renforcement est nécessaire, différentes techniques sont aujourd'hui utilisées : La projection de béton fibré ou non est utilisée aussi bien pour des réparations superficielles que pour des réparations profondes (Blach 1993). Dans le cas des réparations superficielles, le béton projeté limite les défauts de surface et augmente l'enrobage des armatures en prévention de la corrosion. Dans le cas de réparations plus profondes, le béton projeté permet généralement d'enrober des armatures additionnelles assurant ainsi le transfert des efforts. L'application d'une précontrainte additionnelle par câbles métalliques ou composites a été développée pour le renforcement d'ouvrages en béton précontraint, sujets à des pertes de précontrainte et donc à des réductions de capacité portante. Cette technique permet d'appliquer des efforts d'intensité connue en des points précis et suivant des directions bien définies, capables de s'opposer aux efforts générateurs des désordres (Poineau 2010). Bien que très efficace, cette méthode nécessite beaucoup de moyen matériel et de main d'oeuvre. Le collage de plaques métalliques en surface du béton, connu sous le nom procédé de l'Hermite, s'est développé depuis les années 60s. Les plaques métalliques travaillent comme des armatures extérieures. Malgré l'efficacité de cette méthode, les plats métalliques en acier sont sensibles à la corrosion, ne peuvent être utilisés sur des surfaces trop importantes de par leur masse considérable et présentent des difficultés au collage qui doit être effectué sous pression après traitement préalable. Le collage de composites à matrice polymère et fibres techniques (FRP) s'est développée depuis les années 90s en réponse aux limitations de mise en oeuvre inhérentes au collage de plats métalliques. Les recherches d'optimisation des structures antisismiques par les Japonais et les Américains ont rapidement menés à développer dès les années 1980 une technique de réparation substituant aux tôles métalliques, des feuillets de composite moins lourds et plus faciles à mettre en oeuvre. Les premières applications en Europe furent réalisées en Suisse en 1987 pour le renforcement d'un pont (Luyckx 1999, Setunge 2005). Durant les années 1990, l'utilisation des composites se répand. En Europe, de nombreuses universités se penchent sur le sujet des renforcements structurels à base de matériaux composites. Le LCPC (Laboratoire Central des Ponts et Chaussées), la société Soficar (fabricant de fibres de carbone) et la société Freyssinet International développèrent un procédé de renforcement à base de tissus secs imprégnés in situ. Ces recherches permirent le développement de différents produits d'application industrielle à utiliser en remplacement des plats pultrudés et capables de renforcer des surfaces non planes : le TFC® (Tissu Fibre de Carbone) par Freyssinet, le Carbodur par Sika, ou encore le système Replark de Mitsubishi Chemical Corporation (Backlandt 2005, Setunge 2002). Depuis le collage de composite comme renforcement des ouvrages d'art et s'est largement répandu, au Japon et en Amérique du Nord plus encore qu'en Europe, aussi bien pour la réhabilitation que pour la construction de nouveaux ouvrages plus performants. Les différents systèmes utilisent des fibres de verre, d'aramide ou de carbone, retenues pour leurs propriétés mécaniques et de durabilité (Marouani 2007). Cependant les matrices polymères présentent des limites d'utilisation. Aux hautes températures elles se dégradent et se décomposent. Pour pallier à cet aspect, pour certaines applications des matrices minérales aires seront privilégiées. Ces TRC (textile reinforced concrete) se mettent en place de façon similaire aux FRP stratifiés au contact et utilisent des fibres de renforcements métalliques ou de même nature que pour les FRP. Les fibres se présentent toutefois plutôt sous forme de grille pour permettre une inclusion dans la matrice minérale beaucoup plus thixotrope.
x Guides de recommandations pour l'utilisation des FRP
Suite à l'utilisation croissante des composites de renfort FRP, des guides de recommandations ont été publiés dans divers pays. Ces guides définissent des bonnes pratiques d'utilisation ainsi que les calculs à appliquer pour le dimensionnement, et référencent l'avancée des recherches de durabilité et d'optimisation menées par la communauté scientifique. Japon Canada Italie France GrandeBretagne Groupement européen -6- Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de structures en béton par collage externe. 1.1.3 Mise en oeuvre des composites de renfort en Génie Civil
Les composites utilisés actuellement en renforcement extérieur de béton en génie civil sont disponibles sous deux formes différentes :
x Collage de plats consolidés : Figure 3: Illustration renforcement par plats consolidés à fibres de carbone (Sika Carbodur®)
Des fines lamelles de polymère renforcé de fibres rigides fabriquées en usine généralement par pultrusion sont collées à la surface du béton avec une résine pâteuse polymérisant à température ambiante. Toutes les formes auxquelles les fibres peuvent s'adapter sont possibles, depuis les plats, des équerres, des L, ou des formes en I. Il s'agit majoritairement de composites carbone/époxy. Ces matériaux ont l'avantage sur les plats métalliques d'être beaucoup plus légers. Toutefois comme les plats métalliques, ces lamelles ne peuvent être utilisées que pour des surfaces planes et la technique de pose ne permet que difficilement de maîtriser l'épaisseur de la colle.
x Stratification au contact : Figure 4 : Illustration renforcement par stratification au contact avec FRP carbone (SikaWrap ®)
Des tissus secs de fibres de renfort souples sont imprégnés directement sur le site lors de l'application sur la structure au moyen d'une colle liquide durcissant à température ambiante. La zone à renforcer est au préalable induite d'une couche de résine primaire liquide. Après marouflage, une dernière couche de résine de fermeture peut être appliquée comme protection supplémentaire avec le milieu extérieur et améliorer la durabilité du composite. Dans cette technique une même résine est souvent à la fois matrice du composite et l'adhésif assurant la liaison entre le composite et le support béton. L'encollage sur site se fait généralement à la main, Partie 1
:
Contexte même si certains essais d'automatisation d'enrobage de colonne ont déjà été effectués (fib Bulletin 14, 2001). Cette technique peut être utilisée pour renforcer des éléments de surface complexe ainsi que des structures de types pylônes ou colonnes en confinement. De plus, la seule interface de collage avec le support étant la matrice même du composite, cette technique de pose ne génère pas de concentration de cisaillement pouvant provoquer des amorces de décollement dans les zones de faible épaisseur de résine. Dans les deux techniques, des résines durcissant à température ambiante sont utilisées, limitant les propriétés du renforcement de par la température de transition vitreuse assez basse, autour de 80°C, de ces types de résines. De plus dans les deux procédés, plusieurs couches de tissus ou de lamelles peuvent être superposées afin de répondre au besoin du renforcement. En plus de ces techniques de base, plusieurs techniques spéciales ont été développées. La technique d'enroulement automatique de câbles ou de ruban composites permet une installation rapide et de bonne qualité de structures en colonnes comme des cheminées. L'application du renfort composite sur la surface de béton dans un état précontraint est plus difficile à mettre en oeuvre et plus cher, mais augmente largement les propriétés du renforcement. L'imprégnation sous vide des fibres lors de la stratification au contact permet d'améliorer l'imprégnation des fibres, de limiter les défauts de bulles ou d'excédent de résine. Au lieu d'un durcissement à température ambiante des résines de collage, des dispositifs de chauffage peuvent être utilisés de cette façon à réduire le temps de durcissement, à permettre le durcissement à froid, et d'améliorer les propriétés de la résines (propriétés mécaniques et température de transition vitreuse). Différents systèmes de chauffage peuvent être utilisés, tels que les appareils de chauffage électriques, des systèmes IR (infrarouge) ou des couvertures chauffantes. Actuellement les PRF sont utilisés comme renforcement extérieur de structures en béton dans principalement trois cas d'application (Bisby 2004, AFGC 2011) : la flexion, l'effort tranchant (cisaillement) et le confinement : a. Renforcement en flexion : Les poutres ou les dalles peuvent être renforcées en flexion en collant les matériaux de PRF sur la face en traction afin d'apporter un renforcement en traction. Les fibres du composite sont orientées selon la direction principale des contraintes de traction. Le composite en surface apporte sa contribution tout comme les armatur internes. La résistance totale du matériau est alors la somme des contributions du béton, de l'acier et du composite. Le matériau de renfort doit donc présenter à la fois un haut module et une haute résistance afin d'optimiser le renforcement.
b. Renforcement au cisaillement
: Les structures, notamment les poutres, peuvent être renforcées à l'effort tranchant. Les composites sont collés sur les faces latérales. Le renforcement le plus efficace place la direction principale des fibres parallèle à celle des contraintes principales, à environ 45° de l'axe de la poutre. Toutefois pour des raisons pratiques, les fibres sont habituellement orientées perpendiculairement à l'axe longitudinal de la poutre. Différentes configurations peuvent être utilisées, avec des bandes discontinues ou une surface continue dans la direction longitudinale. facilite la migration de l'humidité interne (Hollaway 2010). Le composite peut être fixé tout autour de la poutre, en U ou seulement sur les côtés ; la première configuration étant la plus efficace mais pas toujours possible selon l'emplacement à la poutre à renforcer (Ngo 2015). Comme pour le renforcement en flexion, la résistance est alors la somme des efforts que peuvent reprendre le béton, l'acier et le composite. La résistance en cisaillement du composite ne dépend que de sa résistance et de la longueur d'ancrage, et pas du module.
Figure 5 : Différentes configurations de renforcement en cisaillement (Ngo 2015).
c. Renforcement par confinement : Sous l'effet d'un effort de compression axiale, la colonne se dilate latéralement. L'application circonférentielle de renforts en matériaux composites permet, en limitant les déformations transverses du béton, d'augmenter de façon significative la capacité portante des poteaux. Les calculs de la résistance du béton après confinement prennent principalement en compte le module du composite.
Tableau 2: Récapitulatif des différents types de renforcements de structures par FRP. a) b) c) -9- Partie 1 : Contexte 1.2 Matériaux composites de renfort en Génie Civil
« La réalisation d'un matériau composite consiste à associer dans une même masse des matériaux différents par leur nature chimique et leur forme afin de tenter une sommation des performances » (Daviaux et Filliatre 1985)
Figure 6 : Schéma explicatif de la structure d'un polymère renforcé de fibres unidirectionnelles,
Bien que d'un point de vue général, presque tous les matériaux, y compris le béton, peuvent être considérés comme des matériaux composites ; l'emploi du terme « composite » en génie civil désigne généralement un polymère technique renforcé par des fibres de renfort. Les fibres de renfort assurent les propriétés en traction du composite. Elles sont incluses dans une matrice polymère dont le rôle est d'assurer le transfert des efforts entre les fibres ainsi que la protection du renfort. 1.2.1 Matrice polymère
Les polymères se classent grossièrement en trois groupes, les thermoplastiques, les thermodurcissables et les élastomères. Les thermoplastiques peuvent être remodelés, car deviennent souples voir liquides avec une élévation de température. Les thermodurcissables une fois durcis ne peuvent plus changer de forme. Les élastomères présentent une certaine élasticité et souplesse même une fois mis en forme. Il est à noter que le langage courant a adopté le terme de thermodurcissable, qui provient de la plasturgie, toutefois il serait préférable de parler de matériau thermorigide ou encore thermostable (Mouton 2003). Les formulations des résines industrielles contiennent aussi différents additifs comme des charges minérales, des plastifiants ou des catalyseurs, permettant d'ajuster les propriétés finales ou lors de la mise en oeuvre. Les résines employées pour le renforcement extérieur de béton doivent répondre aux critères de l'application et de l'environnement. Elles doivent présenter une bonne adhérence à la fois avec le béton et les fibres de renfort ou les plats à coller ; avoir une bonne résistance aux conditions climatiques, que sont entre autres l'humidité, des températures extrêmes, et les attaques de produits chimiques issus du béton, comme les alcalins, ou de l'environnement comme les sels. Et bien évidemment, ces résines doivent avoir des propriétés mécaniques suffisamment élevées pour améliorer les propriétés du béton (Setunge 2005).
- 10 - Développement et caractérisation d'un matériau composite à base de fibres de lin - Application au renforcement de en béton par collage externe.
| 18,942
|
0bfc7259defc668a5fff4a1bdbeb0978_7
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,017
|
« De l’âme à la plume ». Les lettres de Charles Gounod à la duchesse Colonna, dite Marcello
|
None
|
French
|
Spoken
| 7,251
| 12,386
|
Je veux vous dire que je me porte bien avant de vous dire que j’ai été bien
212 Georges Bizet épousa, le 3 juin 1869, Geneviève Halévy (1849-1926). Hippolyte
Rodrigues (1812-1898) était le frère de Léonie Halévy, la mère de Geneviève. Agent
de change à la Bourse de Paris jusqu’en 1855, il s’occupa ensuite de travaux littéraires
et d’histoire des religions.
213 Poète et auteur dramatique français, Camille Doucet (1812-1895) fut responsable
de la division théâtre au ministère de la Maison de l’Empereur. En remerciement de
sa Marche Pontificale, Gounod reçut une médaille d’or.
214 Amélie Hébert (1795-1882), née Durand, épousa le peintre Auguste Hébert (17881871) en 1814. Michel* était le surnom de Marcello, par ailleurs duchesse Colonna.
128
malade. Maintenant c’est dit, et c’est fini. J’ai écrit il y a 2 ou 3 jours à
notre Hébert* de qui j’avais reçu une lettre –215 Je suis content de vous
savoir en plein travail216 – Courage, courage, et surtout sursum [sou
ligné trois fois] ! 217 En haut ! En haut ! Quand on ne veut qu’aller loin,
on se trompe soi-même, et on va dans tous les sens : il n’y a que ceux
qui veulent aller haut qui avancent toujours : le reste n’est rien, n’est pas.
– Savez-vous que je vais faire Polyeucte pour le grand opéra ? –218 J’irai
commencer cette grossesse là à Rome, Villa Medici, fin Octobre.219 Je
rends grâce à Dieu du bien que vous fait mon art et des joies qu’il vous
procure : je suis très flatté que le Bon Dieu m’ait chargé de la commission.
Je n’ai jamais vu ni entendu Mr de Sonia ; on me dit qu’il est aussi beau
que sa voix : pour vous, statuaire, voilà deux joies au lieu d’une – vous
êtes donc à Rome jusqu’à l’an prochain !..220 allons, c’est moi qui irai
vous retrouver si je ne dois pas vous revoir jusqu’à l’hiver.
Je vous récrirai bientôt – pourrez vous me lire, cette fois ? la hâte me
fait écrire comme un chat –
Mes souvenirs les plus passionnés à Michel-Ange, et pour vous la plus
tendre amitié de votre Gabriel*
Lettre signée avec un surnom
Autogr. : I.2.Gounod.42
215 Il pourrait s’agir de la lettre destinée à Hébert, datée du 2 juin, figurant dans le fonds
Marcello des Archives de l’État de Fribourg.
216 Marcello travaillait alors à La Pythie*.
217 Pour « sursum corda », c’est-à-dire « élevons notre cœur », expression latine faisant
partie de la messe (Préface).
218 Gounod écrivit un opéra en cinq actes sur la tragédie de Corneille, dont le livret
avait été réalisé par Jules Barbier et Michel Carré. Cette œuvre connut une genèse
compliquée : commencée en 1869, la composition fut interrompue par la guerre de
1870. Puis, la partition fut retenue à Londres par Georgina Weldon*, après le retour de
Gounod en France en 1874. Gounod débuta alors une réécriture fortement différente
de la partition, avant de recevoir le manuscrit original, dont toutes les pages avaient
été barrées de la signature de son ancienne amie. L’opéra fut finalement créé à l’Opéra
Garnier en 1878 et ne rencontra qu’un succès d’estime. Pour plus d’informations sur
la genèse de Polyeucte, cf. G. C ondé , Charles Gounod, op. cit., pp. 439-451.
219 Finalement, Gounod renonça à se rendre à Rome.
220 La duchesse Colonna quitta Rome en avril 1870.
129
Im. 8 : Marcello, La Pythie, réduction en bronze, vers 1880, Musée d’art et d’histoire
Fribourg, © MAHF / Primula Bosshard
130
La prochaine missive de Gounod date d’un mois et demi plus tard. Toutefois, il ne manque probablement pas de lettres à cet endroit de l’échange,
car la suivante fait allusion à un long silence. Néanmoins, cela ne veut pas
dire que le compositeur cessa de penser à la duchesse Colonna, ni d’en
parler avec leurs amis communs. Une lettre du Père Gratry* à la duchesse
Colonna du 4 juillet 1869 en témoigne : « Pourquoi m’oubliez vous absolument ? J’en suis à la fin fort triste. Je demande, avec confusion, des nouvelles à Gounod, à Monsieur Mérimée. Gounod vient de me donner votre
adresse ! »221
Durant cette période de silence, Gounod résida à Morainville chez les
de Beaucourt*, où il travailla au premier tableau de Polyeucte. Ensuite, il
séjourna chez son beau-frère Pigache, à Irreville près Rouen, où il attaqua
le deuxième acte de Polyeucte. De retour à Paris à la fin du mois de juillet,
son élan créateur se brisa.222 Il écrivit à la duchesse Colonna juste avant
de partir d’Irreville.
45
Vendredi 30 Juillet /69 –
Ma bonne chère petite amie,
Ce n’est pas que je sois dans des conditions particulièrement favorables
pour vous écrire long ; mais il y a si long que je ne vous ai écrit, que
mon silence me pèse presque comme un remords, et que je craindrais
en le prolongeant davantage de vous faire croire à mon oubli – Il me
semble pourtant, quand je vous regarde au fond de moi-même, et que
je vois la place que vous y occupez, il me semble que je dois être un
peu à l’abri d’une pareille inculpation ! – Mais enfin l’affection est
faite pour se témoigner, et à force de Silence, elle peut laisser croire
qu’elle dort. Sachez donc, une fois de plus qu’il n’en est pas ainsi.
221 L’écrivain français Prosper Mérimée (1803-1870) entretint une amitié et une correspondance avec la duchesse Colonna ; I.2.Gratry.62.
222 Cf. G. C ondé , ibid., p. 152.
131
Je pense à vous, et bien souvent, et bien fidèlement : je vois que vos
projets ont tout à fait changé : que le séjour en Italie l’a emporté sur
tout le reste : mais enfin, puisque vous l’avez fait ainsi c’est que vous
y aurez vu votre avantage, et je m’en réjouis avec vous et pour vous
dans tous les sens où ce séjour vous sera profitable et salutaire –223
Une fois de plus aussi, sachez que vos chères nouvelles sont et seront
toujours accueillies par un cri de joie de mon cœur – J’ai écrit il n’y
a pas long-tems à notre Hébert* qui m’a donné de bonnes nouvelles
de lui et de vous – allons ! que Rome vous comble, elle me comblera
en vous, jusqu’à ce que j’aille partager votre recueillement et vos joies
laborieuses –224
Je vous serre la main comme je vous aime ; ainsi, ôtez vos bagues si
vous en avez, cela pourrait vous faire mal –
à vous, du meilleur et du plus solide de mon cœur –
Ch. Gounod
Je suis à Paris du 2 au 15 Août.
Lettre sur papier à en-tête : Irreville prés Evreux
Enveloppe avec cachet postal (Evreux : 30-07-69 ; Evreux : 31-07-6? ; Cherbourg à Paris :
31-07-69 ; Roma : 03-08-69) et adresse :
Monsieur D. Mannucci./Palazzo Doria./Corso./Rome./(Per la Signa Duchessa/Castiglione
Colonna.)
Autogr. : I.2.Gounod.43
223 La duchesse Colonna projetait d’aller à Munich pour l’ouverture de l’Exposition
internationale des Beaux-Arts (20 juillet-31 octobre 1869) puis de s’arrêter à Fribourg,
où sa sœur se rendait également (depuis Vienne). Elle y renonça à cause de la chute
de la Sibylle* dans son atelier et resta à Rome pour réparer la statue. Liszt lui écrivit
afin de lui donner des nouvelles de la réception de ses œuvres exposées à Munich ;
cf. D. Vincent, « ‘Dal mio Fidias’ », op. cit.
224 À cette période, Gounod pensait encore se rendre à Rome durant l’hiver pour assister
au concile.
132
Im. 9 : Enveloppe d’une lettre de Charles Gounod à la duchesse Colonna, 30 juillet 1869,
CH AEF Papiers Marcello I.2.Gounod.43
Suite à cette lettre, l’échange semble se distendre quelque peu ou alors passer par des amis communs chargés de commissions. En effet, la duchesse
Colonna écrivit le 22 août 1869 au Père Gratry* : « Donnez de mes nouvelles à nos amis communs le duc et la duchesse que j’aime et vénère, leurs
neveux, et Gounod à qui je dois écrire. […] Avez-vous lu l’admirable poème
de Gounod sur la Rédemption ? »225
225 Le duc et la duchesse Pozzo di Borgo possédaient une demeure à Montretout, tout
comme le Père Gratry. Les neveux étaient probablement des enfants de Paolo Felice
Pozzo di Borgo, frère du duc ; Marcello, sculpteur, une intellectuelle dans l’ombre,
op. cit., p. 107.
133
Dans cette correspondance à une voix vient alors s’insérer la seule lettre
conservée de la duchesse Colonna à Gounod. Cette unique missive nous fait
penser qu’elle a échappé par erreur (mauvais classement ?) à la destruction
totale de ses lettres. Elle est conservée sous la forme d’une photocopie dans
le fonds Marcello aux Archives de l’État de Fribourg, qui ne mentionne
aucune trace de l’original. Sur ce point, le mystère reste complet.
46
Rome, ce samedi [9] oct [1869]
Papa Giulio*.
Mon bien cher ami
Je ne me comprends pas, et dois me dire une foule de choses désagréables à votre sujet, sans atténuation possible. Je dessine voilà le secret,
et chaque heure du jour est employée à progresser dans l’art par le côté
sérieux, sinon par le plus agréable. C’est du contre point que j’exécute
chaque soir, en présence d’Hébert*, dans cette grande chambre aux
tapisseries fantastiques [à la Villa Médicis]. Ceci pour permuter dans
l’art, et passer peintre un jour.
N’en parlez pas, car il me faudra des années d’étude dans ce sens je ne
quitterai point la sculpture mais j’en ferai moins ce qui me donnera
plus d’indépendance, de santé et d’argent. Il en vaut la peine.226 Je
me sens déjà si endolorie à l’approche du froid, m’étant énormément
fatiguée cet été, que je prévois l’enraiement nécessaire cet hiver. Pour
ne pas chômer, dessin dessin à mort. Vous viendrez voir cela mais alors,
…… dessinerait on ?
Vous faites Polyeucte, on dit que ce qui est déjà né est superbe, le curé
de la Madeleine m’a chanté vos grandeurs l’autre jour.227
226 La sculpture n’était pas conseillée pour la duchesse Colonna de santé fragile. La
peinture présentait le double avantage d’être moins fatigante et moins onéreuse.
227 Curé de la Madeleine à Paris entre 1849 et 1871, l’abbé Gaspard Deguerry (17971871) fut fusillé par les Communards.
134
Sont-ce les excellents Pozzo* qui ont le bonheur de vous voir à présent.
Transmettez leur mon très affectueux souvenir [dans la marge]. Où
êtes vous que faites vous, cher ami je ne vous dis pas ce que je pense,
mais vous le savez, et ne me croyez pas capable de varier, n’est-ce pas.
L’affection que j’ai pour vous est de trop belle qualité. Nous en donnerons nous de voisines en paradis n’est-ce pas ? Mais priez pour que j’y
arrive, vous qui méritez si bien d’être exaucé. Vous aurez une photo
graphie de la Sybille, c’est à dire d’un dessin fait par Hébert d’après
elle.228 Si vous jurez qu’aucun sculpteur, peintre ou dessinateur n’y
jettera les yeux. A vous pour vous, vous seul, dans le fond d’un tiroir
ou bien au feu, après l’avoir vue. Mme Mohl*, votre adoratrice discrète,
et son mari seront ici le 18 octobre jusqu’en décembre. Du reste désert,
et calme, et progrès, toujours en haut ! votre devise
Cher, bien cher ami, je vous serre la main le plus affectueusement du
monde.
AC
[dans la marge de la première page] Hébert* va bien
Ecrivez comme de coutume à Mannucci palais Doria Corso229
Autogr. : non localisé ; photocopie I.2.Gounod.47
Finalement, les retrouvailles à Rome n’eurent pas lieu, car Gounod renonça à se
rendre dans la ville éternelle pour le concile, qui attirait trop de monde et aurait
nui à sa tranquillité, comme il l’expliqua en octobre à la duchesse Colonna.
À la même période, il écrivit à Édith de Beaucourt : « Je vais m’arranger avec
un couvent de France d’où je pourrai, de temps en temps, venir prendre à
Paris 48 heures de distraction qui me seront nécessaires et salutaires. »230
Durant l’automne, il séjourna également chez sa belle-sœur Zéa Pigache à
Irreville près Rouen.
228 Le dessin aux deux crayons sur papier gris d’après le plâtre original est conservé au
Musée d’art et d’histoire de Fribourg. Une reproduction figure dans Marcello : Adèle
d’Affry (1836-1879), duchesse de Castiglione Colonna, éd. Gianna A. Mina, Milan,
5 Continents Editions, 2014, p. 91.
229 La duchesse Colonna recevait ses lettres, adressées à Mannucci, au palazzo Doria al Corso.
230 Cf. G. C ondé , Charles Gounod, op. cit., p. 153.
135
47
Paris – Mercredi 13 8bre /69 –
Mon amie très chère,
Je commençais à avoir un peu besoin d’être fixé par vous-même sur ce
que je devais penser de mes droits épistolaires à votre sujet : votre lettre,
votre chère lettre de ce matin vient mettre un terme à ma perplexité,
et vous voyez que je me hâte de vous dire la joie que j’en éprouve. Je
ne sais si la tyrannie a de bons côtés ; je ne lui en connais aucun ; mais
je n’en imagine pas de pire que la persécution des reproches et les querelles d’amitié. Aimer, c’est rendre heureux – Si l’on peut du moins – et
se rendre insupportable n’est certes pas le moyen à choisir pour cela.
Donc vous êtes contente, joyeuse, tranquille, et vous travaillez ?–231
Chère heureuse femme ! mais vous êtes tout bonnement en Paradis…
en attendant l’autre qui doit être composé des mêmes félicités que
celui d’ici bas moins la crainte de les perdre, et plus la certitude de les
sentir croître et se dilater indéfiniment dans cette sécurité divine qui
enveloppera et pénétrera toutes les joies ! –
J’ai écrit ces jours derniers à notre Hébert* en réponse à une lettre de
lui reçue le même jour - Hélas !.. je ne vais pas à Rome cet hiver ! –
Non : je vais me cacher dans un coin quelconque de France, et y vivre
comme un cénobite dans la compagnie de Polyeucte, Pauline, etc…232
Le grand Concile, auquel vous allez avoir l’incomparable bonheur
d’assister, va certainement attirer à Rome l’univers entier : et, au milieu
des centaines de connaissances que j’y aurais rencontrées, le moyen de
soustraire mon pauvre travail au despotisme de la politesse et à celui
plus irrésistible encore des affections présentes ! – pour se recueillir et
travailler, réellement, sérieusement, pour de bon, il ne faut avoir ses
amis que dans son cœur : présents ils deviennent tout et mangent le
reste. Quant à mon Polyeucte, j’en suis toqué, fanatique ; c’est une
231 Marcello travaillait à réparer sa Pythie*, mais surtout apprenait le dessin pour devenir
peintre. Les lettres à sa mère témoignent d’une rare abnégation à la tâche.
232 Pauline est le personnage féminin principal de Polyeucte.
136
corde divine autour des reins ! Le poëme est supérieurement disposé,
et j’ai demandé, vous le devinez bien, à dire et à montrer en face ce
que Corneille a été réduit à laisser dans la coulisse, le Baptême de
Polyeucte et le Brisement des idoles, ce qui me donne deux finales de
toute beauté.233 Du reste la mise en présence de ce Paganisme mourant
de jouissances et de ce Christianisme vivant de martyre est un océan
inépuisable de contrastes pour la palette d’un musicien, et comptez
que je vais m’en régaler ! ! !
– Alors, voilà l’ébauchoir momentanément détrôné par le pinceau ! –234
Allons ! Dieu soit loué si vous faites bien ! – après tout, vous êtes
Michel*, et Archange ! et qui donc aurait le droit de passer ainsi d’un
soleil à un autre si ce n’étaient ces Esprits de Feu et de Lumière ! – c’est
pourquoi, sans récuser les commissions dont vous me chargez pour
le Paradis, je vous les retourne, pensant qu’elles seront encore mieux
faites par vous que par moi, bien que, du plus petit au plus grand, tout
cela passe toujours par Celui qui est l’unique valeur de toutes choses,
et par qui tout a été fait.
– Je vous embrasse et vous aime ainsi que vous le savez – Je pars pour
ma retraite du 6 au 10 novembre.235 Ecrivez moi encore d’ici là ; je
vous dirai ensuite ce que je ferai –
à vous toujours et pour toujours
Charles
233 Paradoxalement, le fait d’avoir montré ce que la tragédie classique dissimulait (le
triomphe de Sévère, le baptême de Polyeucte, la fête païenne et la scène du cirque)
fut l’un des éléments reprochés à Gounod lors de la création de l’opéra en 1878.
L’œuvre souffrit également de la comparaison avec Les Martyrs (1840) de Gaetano
Donizetti ; cf. Paul Prévost, « Polyeucte », dans Dictionnaire de la musique en France
au XIXe siècle, éd. Joël-Marie Fauquet, [Paris], Fayard, 2003, p. 987. Pour plus
d’informations sur Polyeucte, voir G. C ondé , Charles Gounod, op. cit., pp. 439-451
et S. Huebner, Les Opéras de Charles Gounod, op. cit., pp. 232-235.
234 Marcello apprenait à peindre avec Hébert.
235 Gounod confia à Édith de Beaucourt son envie de se retirer pour quelques temps dans
un couvent. Toutefois, il ne mit pas sa résolution en œuvre. Le 7 novembre il dirigea,
lors du premier des Concerts de l’Opéra, le chœur des Juives et des Sabéennes de La
Reine de Saba, l’« Adagio » de sa Première Symphonie et le « Scherzo » de la Seconde
Symphonie ; cf. G. C ondé , Charles Gounod, op. cit., p. 153.
137
Et ne manquez pas de me dire toujours bien exactement où je dois
continuer à vous écrire. Je me tiens jusqu’à nouvel ordre à l’adresse de
Mr D. Mannucci – per la Duchessa C.– – 236
– Etes vous toujours Albergo di Roma* ?.
F. [Faust] a fait hier soir 13’070 f rs de recette, le plus haut chiffre atteint
à l’opéra, m’a dit Perrin*.
Enveloppe avec cachet postal (Paris : 13-10-69 ; Roma : 1?-10-69) et adresse :
Monsieur D. Mannucci./Palazzo Doria/Corso./Rome./(per la Signa Duchessa/Castiglione
Colonna.)
[Au dos de l’enveloppe : abbonato/li 16 ott]
Autogr. : I.2.Gounod.44
Suite à cette lettre de Gounod, la correspondance comprend un trou de
presque un an. Toutefois, il est possible de combler une partie des six
derniers mois. La duchesse Colonna arriva à Paris le 21 avril 1870.237 Elle
renoua tout de suite les contacts avec son entourage, dont Gounod, comme
une lettre à sa mère du 22 avril 1870 nous le révèle : « Puis j’ai été m’habiller
et avertir quelques amis du retour. Fillonneau* charmant toujours, Fortuny*
m’a abordée, quel hasard ! et c’est fini très probablement. Je retourne chez
Pothon avec Mme Mohl*, Jadin*, et peut-être Gounod. »238
Toutefois, les retrouvailles ne semblent pas avoir été au beau fixe,
comme la duchesse Colonna le relata à sa mère dans une lettre du 25 avril
1870 :
Gounod m’a joliment vexée, au moment ou j’arrivais chez Thiébaut [son fondeur
à Paris] avec Mme Mohl* Fillonneau*, et le petit Jadin*, une bonne trompette,
il a imaginé de critiquer à la Mr Gaston [de Nicolaÿ*], ah cette tête, ma chère
changez changez la de suite, je vous en supplie, elle est stupide,… comme si cela
se changeait ainsi, et si justement l’expression n’était pas le grand mérite de cette
236 La duchesse Colonna recevait ses lettres, adressées à Mannucci, au palazzo Doria al
Corso.
237 Cf. lettre à sa mère du 20 avril 1870 ; I.1.1.1870.2.
238 I.1.1.1870.3.
138
œuvre.239 C’était me tirer une flèche dans l’œil, au point le plus sensible, de la
part d’un génie tel que lui, et en présence des autres. J’ai maintenu que la tête
devait être sinistre et non faire des grimaces.240
Il est certain que cet épisode a refroidi la duchesse Colonna et que le contact
des deux amis s’est amenuisé. Il ne reste ensuite, dans le fonds Marcello aux
Archives de l’État de Fribourg, qu’une lettre de Gounod, qui rend compte
de leur absence de relation depuis cette journée d’avril 1870.
48
Mardi 20 7bre /70 –
Ma chère et très aimée amie,
C’est à Londres qu’est venue me trouver votre lettre du 11 adressée
à Paris : par une circonstance toute fortuite, cette lettre (qui aurait
pu m’attendre indéfiniment et donner à mon silence un aspect très
immérité) a été mise par mon Concierge dans un paquet de musique
que j’avais chargé un ami de prendre chez moi et de m’envoyer ici :
Car il y a plus de six semaines que j’ai quitté Paris, et nous sommes
ici depuis une dizaine de jours.241 votre lettre m’est arrivée hier, et j’y
réponds sans délai, comme aussi je vous dois l’explication de ce long
silence dont vous me faites le très affectueux reproche. J’ai pensé vous
avoir mécontentée, lors de notre rencontre à Paris chez votre fondeur
[Thiébaut], par mon attitude un peu gênée devant votre statue dont
je conviens tout à fait que j’étais fort incapable d’apprécier la vraie
valeur, mais pour laquelle il m’aurait été impossible de singer un élan
239 Il s’agit de La Pythie, que Marcello exposa avec Le Chef abyssin au Salon de 1870.
La Pythie ne fut que peu appréciée, contrairement au Chef abyssin.
240 I.1.1.1870.4.
241 En juillet 1870, Gounod séjourna à Morainville, puis en août à Varengeville-surMer. Suite à la proclamation de la République, le 4 septembre, Gounod passa la
Manche – avec sa femme, ses enfants et sa belle-mère – le 12 septembre et s’installa
à Blackheath chez Luisa Brown, une chanteuse amie de Mme Zimmermann.
139
que je n’éprouvais pas. J’ai cru voir que ma tiédeur vous blessait, et
j’attendais, enfermé dans la discrétion, que q. q. témoignage de votre
part vînt me détromper à ce sujet : – – et voilà ! –
Maintenant, laissez moi vous dire combien je suis heureux de vous
savoir en Suisse, et combien je vous remercie d’avoir eu la pensée de
m’y offrir un abri.242 Un souvenir de vous m’est toujours très cher et
très doux : je suis ici avec ma femme, mes enfants et ma belle-mère
que j’ai du soustraire à la contagion des anxiétés toujours croissantes
et de la situation de plus en plus grave et périlleuse de notre pauvre
pays. nos malheurs et nos défaites et nos désastres surpassent tout ce
qu’il était possible d’attendre, étant donnés le courage et l’énergie de
l’armée française ; mais on cesse d’être étonné quand on songe combien
d’incurie, de légèreté, de frivolité dans la vie (privée et publique) nous
a conduits où nous sommes.243 Nos deux grands ennemis ont été la
vigilance de la Prusse et l’inqualifiable sécurité de notre paresse et de
notre crédulité. La France est furieuse d’avoir été trompée, et avec cela
elle s’arrange toujours pour qu’on la trompe. Nous nous dispensons trop
de mettre la Providence dans nos affaires. Relisez le Psaume 126 ! –244
242 La duchesse Colonna offrit un abri à plusieurs personnes, notamment à Gustave
Courbet et à Henri Regnault*. On peut supputer que les dangers encourus par ses
amis sont la raison pour laquelle elle passa par dessus sa rancune envers Gounod.
243 Le 19 juillet 1870, la France déclara la guerre à la Prusse. Mal préparés, les Français
essuyèrent plusieurs défaites, notamment lors de la bataille de Froeschwiller-Woerth
(6 août 1870), dont la célèbre charge de cuirassiers français fut récupérée par la
propagande française. La bataille de Saint-Privat/Gravelotte (18 août 1870) conduisit
l’armée du maréchal François Achille Bazaine à se replier dans Metz. Le long siège
qui suivit mena à la capitulation le 27 octobre. Finalement, la bataille de Sedan
(1er septembre 1870) déboucha sur la capitulation de Napoléon III le 2 septembre
1870.
244 « A Sion, quand le Seigneur changea notre sort nous pensions rêver. Nous ne cessions
de rire et de lancer des cris de joie. Chez les autres nations on disait : ‘Le Seigneur a
fait beaucoup pour eux.’ Oui, le Seigneur a fait beaucoup pour nous, et nous étions
tout heureux. Seigneur, change notre sort une fois encore, comme tu ranimes les
ruisseaux asséchés. Celui qui pleure quand il sème criera de joie quand il moissonnera.
Il part en pleurant pour jeter la semence ; il reviendra criant de joie, chargé de ses
gerbes de blé. » dans La Bible, op. cit., Ancien Testament, p. 953.
140
Et, si Dieu nous sauve, vous lirez le 123. –245
J’ai passé une partie du mois de Juillet, (22 jours) chez mes amis [de
Beaucourt*] à Morainville près Lisieux (où vous m’avez écrit de Caute
rets* il y a trois ans.) J’y ai completement achevé la composition de mon
ouvrage ; j’allais me mettre à l’exécution quand la guerre a éclaté avec
nos infortunes et m’a paralysé –246 je ne songe plus qu’à la France, et
je n’existe plus de mon existence propre –
Je sais Hébert* à Grenoble. Mais jusqu’à quand ? Et que va-t-il devenir en face de l’Italie actuelle ?247 L’Europe est un volcan – Ici les
245 « Je tiens les yeux levés vers toi, Seigneur, qui as ton trône dans le ciel. Comme des
esclaves ont leur regard fixé sur la main de leur maître, comme une servante ne quitte
pas des yeux la main de sa maîtresse, ainsi nous levons nos regards vers le Seigneur
notre Dieu, en attendant un signe de son appui. Accorde-nous ton appui, Seigneur,
oui, accorde-nous ton appui, car nous n’en pouvons plus d’être méprisés ; nous en
avons plus qu’assez de l’ironie des insolents et du mépris des arrogants. » dans La Bible,
ibid., p. 952.
246 Gounod écrivit, le 26 juillet, à la 157e page de ses esquisses que Polyeucte était fini
de tête. La déclaration de guerre à la Prusse, le 19 juillet, ajourna la composition.
Lorsqu’il rentra en France, Georgina Weldon*, avec laquelle il s’était brouillé, refusa
de lui renvoyer la partition. Gounod réécrivit alors de mémoire son opéra. Presque
arrivé au bout de sa tâche, il reçut le manuscrit original, en septembre 1875, dont
toutes les pages étaient barrées de la signature de Georgina Weldon au crayon bleu.
Les deux partitions comportent de nombreuses différences, tant dans l’instrumentation que dans le dessin des lignes vocales ; cf. G. C ondé , Charles Gounod, op. cit.,
pp. 154 ; 443-444.
247 Hébert était aux eaux de La Motte, près de Grenoble en août. Durant le Second
Empire, les troupes françaises protégeaient Rome alors sous souveraineté pontificale.
Suite à la défaite de Napoléon III à la bataille de Sedan (1er septembre 1870) et à la
prononciation de la déchéance de l’Empereur (4 septembre), les troupes françaises à
Rome furent attaquées. La bataille de la Porte Pia du 20 septembre (date à laquelle
Gounod écrit, il ne peut donc en avoir connaissance) mena à l’annexion de Rome
au royaume d’Italie. Dès lors, le pape exerça sa souveraineté temporelle uniquement
sur la Cité du Vatican. Suite à la défaite française, le sort des bâtiments français de
Rome, dont la Villa Médicis, était particulièrement en danger. Hébert, de retour à
Rome en septembre 1870, dut se battre pour sauver le palais et l’institution dont il
était directeur : « L’État ne nous envoie plus d’argent. Je soutiens le fonctionnement
régulier de toute la maison avec mes ressources personnelles et je maintiens les pensionnaires dans la confiance et le devoir. Les choses ne sont pas encore équilibrées
141
secousses de la France inquiètent meme plus qu’elles n’intéressent ! –
“L’homme s’agite et Dieu le mène !” Prions beaucoup ! Prions celui
qui fait voir et vouloir le Vrai et le Bien ! “Sans moi, nous a-t-il dit,
vous ne pouvez rien !”248 Comme on a d’occasions de s’en convaincre !
Si vous recevez ma lettre, et que vous y répondiez, adressez votre
réponse : “Mr G. . . . . Mrs Brown’s Higham-House : Blackheath, near
London.”
Adieu, je vous serre la main comme je vous aime.
Ch Gd
Autogr. : I.2.Gounod.46
mais les envois partiront pour Paris à la fin du mois… Je vis au jour le jour, à la tête
de ma petite armée, défendant la Villa contre la convoitise de la municipalité romaine
qui voudrait s’en faire céder un gros morceau. » cité dans R. Patris d’Uckermann,
op. cit., pp. 141-143.
248 Citation de l’Évangile selon saint Jean (15 :5) : « Je suis la vigne, vous êtes les
rameaux. Celui qui demeure uni à moi et à qui je suis uni, porte beaucoup de fruit,
car vous ne pouvez rien faire sans moi. » dans La Bible, op. cit., Nouveau Testament,
p. 158.
142
Im. 10 : Lettre de Charles Gounod à la duchesse Colonna, 20 septembre 1870, CH AEF
Papiers Marcello I.2.Gounod.46
143
Bien que cela soit la dernière lettre conservée de Gounod, Hébert* et la
duchesse Colonna échangèrent encore à propos de leur ami commun. Le
3 octobre 1870, Hébert écrivit à la duchesse : « Gounod a bien fait d’aller en
Angleterre, savez vous son adresse ? j’aurais besoin de lui écrire. »249 Puis, le
30 juin 1871 : « quant à votre portrait au crayon il est accroché à coté de la
cheminée du salon en pendant avec celui de Gounod. Vous ne l’aurez qu’à
l’ouverture de ma succession. L’ange céleste doit être sur le point de rentrer
en France. »250 Le 8 août 1871 : « Gounod à Londres. »251 Il commenta encore
un 10 septembre non daté, mais probablement 1871 : « Gounod a coupé ses
ailes d’ange aux pieds de la Weldon*, quelle chute ! »252
De retour à Paris en 1872, la duchesse Colonna ne semble pas avoir revu
Gounod lorsque ce dernier revint définitivement en France en juin 1874.
Cependant, il est vraisemblable qu’ils se rencontrèrent lors de l’inauguration de l’Opéra Garnier le 5 janvier 1875, sans que cela ne figure dans
249 I.2.Hébert.16. En janvier 1871, Hébert écrivit à Gounod : « Je ne te parle pas des
affaires de notre pays, si graves qu’elles atteignent jusqu’aux plus humbles existences
et empêchent toute espèce de projets. Qui sait quand je te reverrai, mon cher petit,
et si jamais nous nous reverrons ! Ici nous sommes trop heureux, quand bien des gens
souffrent chez nous. La campagne me semble plus belle que jamais. Rome a beaucoup
perdu depuis l’entrée des Italiens, mais c’est toujours sublime ! » cité dans R. Patris
d’Uckermann, Ernest Hébert 1817-1908, op. cit., p. 143. À la suite du décès d’Henri
Regnault, tombé lors de la bataille de Buzenval, il écrivit à Gounod : « L’Académie
a donné pour la cause de la défense nationale le plus précieux et le plus cher de ses
enfants, le pauvre petit Régnault [sic]. Tu peux te figurer les regrets que cette perte m’a
causés ; car tu sais combien j’avais foi en l’avenir de ce garçon et combien je l’aimais
tendrement. Au milieu de tant de natures vulgaires que je vois défiler devant moi à
l’Académie, c’était un diamant incomparable dont j’aimais l’éclat. Avec lui disparaît
la raison d’être de l’école des fantaisistes, les autres ne sont plus que des écoliers en
révolte contre la loi, et par conséquent faciles à remettre à l’ordre. C’est ce que je vais
entreprendre maintenant plus sérieusement que jamais à la Villa, l’Institut étant
de nouveau appelé à reprendre la haute main sur l’École des Beaux-Arts et sur la
vieille Académie qui en avait grand besoin. Du reste, je combats la mélancolie par le
travail toujours sain à l’âme, ce n’est que par lui que j’ai pu traverser dans le calme
les chagrins de ces derniers mois. » cité dans R. Patris d’Uckermann, ibid., p. 143.
250 I.2.Hébert.22.
251 I.2.Hébert.23.
252 I.2.Hébert.48.
144
leurs correspondances respectives. De santé de plus en plus déclinante, la
duchesse Colonna effectua alors de nombreux voyages pour se soigner, ce
qui empêcha une rencontre ultérieure avec Gounod. Toutefois, une lettre
non datée d’Hébert, mais probablement d’avril 1877 (car Cinq-Mars a été
créé le 5 avril 1877), souligne que l’on continue à prendre des nouvelles des
anciens amis, même si les liens sont désormais distendus : « Gounod très
attaqué et mal exécuté [allusion à la création de Cinq-Mars] va à merveille.
Je vais faire son portrait, son Cinq Mars est plein de belles choses mais le
sujet ne lui a pas inspiré de grandes émotions. »253 Finalement, la duchesse
Colonna décéda, en 1879, de la tuberculose à Castellamare di Stabia sans
avoir revu Gounod – qui lui survécut quatorze ans – dans ses dernières
années.
Au terme de ce parcours à travers la relation de la duchesse Colonna
et de Gounod, il reste à mentionner un document conservé dans le fonds
Marcello aux Archives de l’État de Fribourg, dont la présence n’est pas élucidée. Toutefois, il est fort probable que cette partition manuscrite, la copie
d’un extrait de l’opéra comique Le Domino noir (1837) de Daniel François
Esprit Auber, soit le fruit de Gounod.254 Outre la graphie, nous penchons
pour cette attribution en raison du texte recopié : « Car je suis ton bon ange,
ton conseil, ton gardien, et mon cœur en échange de toi n’exige rien, qu’un
bonheur un seul et c’est le tien ! ». Il s’agit du refrain de la romance (acte I,
scène 6) chantée par Angèle. Dans ce cas, cette partition serait un écho aux
surnoms, Gabriel* et Michel*, qui apparaissent dans les dernières lettres de
Gounod à la duchesse Colonna et un ultime témoignage de cette relation
d’amitié exceptionnelle que les deux artistes ont partagée.
253 I.2.Hébert.46.
254 III.8.2.
145
146
Glossaire
17, Rue La Rochefoucault, adresse des Gounod à Paris dès 1855.
Comtesse d’A ffry (1816-1897), née Lucie de Maillardoz, épousa le comte Louis
d’Affry (1810-1841) en 1833. Elle donna naissance à Adélaïde Nathalie Marie Hedwige Philippine le 6 juillet 1836, puis à Cécile Marie Philippine Caroline (1839-1911).
Après le décès de sa fille aînée, le 16 juillet 1879, elle s’occupa de la mise en valeur
de ses œuvres.
Albergo di Roma, la duchesse Colonna y logea dans un petit gîte.
Comte Alexandre A pponyi (1844-1925), fils du comte Rodolphe II Apponyi, chambellan impérial, diplomate, membre héréditaire de la deuxième Chambre hongroise.
Le comte fut très proche de la duchesse Colonna.
Marquis et marquise de Beaucourt, amis les plus proches de Gounod. Édith de
Montigny épousa, en 1854, le comte de Beaucourt (1833-1902), historien français.
Gounod a séjourné à de nombreuses reprises chez eux à Morainville, généralement
durant l’été. Il évoque sa rencontre, enfant, avec Gaston de Beaucourt dans ses
Mémoires d’un artiste, op. cit., pp. 131-132.
Comte Friedrich Ferdinand von Beust (1809-1886), homme d’État saxon et autrichien, ministre des affaires étrangères de la Saxe entre 1849 et 1866, ministre des
affaires étrangères de l’Autriche entre 1867 et 1871, chancelier dès 1866.
Princesse Mathilde Bonaparte (1820-1904), fille de Jérôme Bonaparte, ex-roi de
Westphalie (1807-1813) et de sa seconde épouse, la princesse Catherine de Württemberg. La princesse Mathilde fut élevée à Rome et à Florence, où ses parents étaient en
exil. En 1840, elle épousa le comte Anatole Demidoff. Fuyant un mariage malheureux,
elle s’installa à Paris en 1846, auprès de son amant le comte Émilien de Nieuwerkerke,
surintendant des beaux-arts de la Maison de l’Empereur. Sous le Second Empire et
la Troisième République, elle tint à Paris un salon fort couru. Elle entretint une amitié et une correspondance avec Ernest Hébert. Elle fréquenta la duchesse Colonna,
notamment lors des séries de Compiègne. Toutefois, cette dernière relate l’animosité
147
de la princesse Mathilde, qui était également artiste (elle exposa des peintures et des
aquarelles), à son égard.
Caroline (M iolan)-C arvalho (1827-1885), soprano française, étudia le chant avec
Gilbert Duprez, engagée à l’Opéra-Comique en 1850, épousa la basse Léon Carvalho
en 1853 qu’elle suivit au Théâtre-Lyrique (dont il devint directeur en 1856). Elle y créa
les rôles de Marguerite dans Faust (1859), de Juliette dans Roméo et Juliette (1867),
ainsi que le rôle-titre de Mireille (1864) de Gounod. Par la suite, elle chanta également
à l’Opéra de Paris et sur les scènes internationales.
Cauterets, station thermale des Hautes-Pyrénées, très fréquentée au XIXe siècle.
Georges C lairin (1843-1919), peintre orientaliste et illustrateur français, étudia
à l’École des beaux-arts de Paris, commença à exposer en 1866. En 1869, il visita
l’Espagne avec Regnault et la duchesse Colonna. En 1895, il voyagea en Égypte avec
Camille Saint-Saëns. Il réalisa de nombreux portraits de Sarah Bernhardt, avec laquelle
il fut ami. Il peignit le plafond du foyer de l’Opéra Garnier (1874).
Directeur, voir H ébert.
Ernest Fillonneau (1838-?), auteur de comptes rendus des salons parisiens pour
Le Moniteur des Arts.
Mariano Fortuny (1838-1874), peintre catalan, élève de Claudi Lorenzale. En 18601862, il voyagea au Maroc, un séjour qui le poussa à réaliser des toiles orientalistes.
En 1866, il étudia à Paris avec Jean-Léon Gérôme. De retour à Madrid, il épousa la
fille de Federico de Madrazo, peintre et directeur du Prado. Il possédait, à Rome, un
atelier voisin de celui de Marcello. Ses tableaux de genre rencontrèrent un immense
succès dans les années 1870.
Gabriel, surnom que se donne Gounod lorsqu’il écrit à Marcello, qu’il appelle alors
« Michel ». La foi de Gounod est semble-t-il à l’origine de cette appellation. En effet,
Hébert le qualifie plusieurs fois d’« ange » dans ses lettres à la duchesse Colonna. Il est
donc probable que ces surnoms datent de leur séjour commun à Rome au début de
1869. Dans ce contexte, il n’est pas étonnant que le surnom choisi signifie « homme
de Dieu » ou « homme à qui Dieu fait confiance ». En outre, l’archange Gabriel est le
messager de Dieu. Il a également la fonction de gardien et, avec saint Michel, protège
les portes des églises contre les démons.
148
Charles Louis G ay (1815-1892), évêque auxiliaire de Poitiers. Il avait été condisciple
de Gounod au collège Saint-Louis (cf. l’évocation de leur rencontre par Gounod dans
ses Mémoires d’un artiste, op. cit., pp. 129-131). Doué pour la musique, il effectua
des études supérieures au Conservatoire de Paris, où il se lia avec Franz Liszt. Il fut
ordonné prêtre le 17 mai 1845. Il participa, en tant que théologien du pape Pie IX,
au Concile Vatican I. Il est l’auteur de nombreux ouvrages de spiritualité, dont De
la vie et des vertus chrétiennes considérées dans l’ état religieux (1874), qu’il écrivit dans
la propriété de Traforêt, située au nord de Limoges, dans laquelle Gounod lui rendit
visite, notamment lors de sa crise conjugale en 1868.
La Gorgone, sculpture de Marcello qui rencontra un grand succès au salon de
1865. Cette œuvre fut suscitée par Mme Revirard, une élève de Pauline Viardot, qui
chanta, alors que la duchesse Colonna séjournait à Aix-les-Bains, un air, « J’ai perdu la
beauté qui me rendait si vaine » (Méduse, acte III, scène 1), du Persée (1682) de JeanBaptiste Lully. Marcello se lança alors dans la réalisation de cette pièce, reproduite à
de nombreuses reprises.
Auguste Gratry (1805-1872), prêtre et philosophe français, restaurateur de l’Oratoire
de France, élu en 1867 à l’Académie française au fauteuil du baron de Barante. Lors du
concile Vatican I, le Père Gratry contesta la proclamation de l’infaillibilité pontificale,
avant de se ranger. Il était le guide spirituel et le confident de la duchesse Colonna.
Il fut également en relation avec Gounod.
Ernest H ébert (1817-1908), peintre français, Grand Prix de Rome en 1839, pensionnaire de l’Académie de France à Rome entre 1840 et 1844 (séjour qu’il dut prolonger
pour des raisons de santé), directeur de cette institution entre 1867 et 1873, puis entre
1885 et 1891. Amateur de musique, Hébert jouait du violon et fréquenta assidûment
Gounod à la Villa Médicis. Dans sa correspondance, Gounod l’appelle souvent le
Directeur ou le Petit Directeur.
Emmanuel Charles Jadin (1845-?), fils de Louis Jadin, peintre français, débuta au
Salon de 1868.
Auguste K aulla (1834-1894), directeur du chemin de fer autrichien en correspondance avec les lignes ferrées françaises. Il écrivit différents mémoires, notamment
sur les haras de Hongrie et sur le travail du fer en Styrie. Il fut chargé de conduire
l’empereur François-Joseph et son épouse à Salzbourg en 1867. Ami de Mérimée, il est
recommandé par ce dernier dans sa correspondance adressée à la duchesse Colonna.
Elle doit l’avoir ensuite signalé aux souverains autrichiens pour une distinction, car
149
ce dernier écrit à Mérimée, le 26 août 1867, qu’il est débiteur à vie de la duchesse
Colonna.
Hermann K anzler (1822-1888), militaire allemand, ministre de l’armée et commandant suprême des forces armées pontificales dès 1865. Il était le chef d’état-major des
Forces armées des États pontificaux au cours de la prise de Rome en 1870.
Michel, surnom donné par Gounod à la duchesse Colonna dans les dernières lettres
qu’il lui adresse. Il s’agit d’une allusion à leur passion commune pour Michel-Ange
et peut-être aussi au pseudonyme masculin, Marcello, que la duchesse Colonna a
choisi comme nom d’artiste. Lorsque Gounod emploie « Michel » pour qualifier la
duchesse Colonna, il signe très souvent ses lettres « Gabriel ». Ce surnom évoque donc
probablement aussi le fait que saint Michel, avec l’archange Gabriel, protège les portes
des églises contre les démons. Étant donné que Gounod utilise également ce surnom
dans une lettre à Hébert, il est fort probable qu’il date de leur séjour commun à Rome
au début de 1869.
Mary Mohl (1793-1883), née Clarke, épousa l’orientaliste Julius von Mohl (18001876), professeur de persan au Collège de France. Dans sa jeunesse, elle avait fréquenté
le milieu de Madame Récamier. Elle tint un salon fameux à Paris. Elle était l’amie de
la duchesse Colonna, avec laquelle elle entretint une correspondance.
Mont-Cenis, massif situé dans les Alpes du Nord à la frontière entre la France et l’Italie.
Le col du Mont-Cenis (2081 mètres) relie la vallée de la Maurienne au val de Suse.
Il s’agit de la route traditionnelle au XIXe siècle pour se rendre de Paris en Italie.
Comte Gaston de Nicolaÿ (1812-1895), fils du marquis de Nicolaÿ, pair de France,
et d’Augustine de Lévis. La famille s’installa à Givisiez, en 1830, près du château des
d’Affry.
Baron Maurice d’O ttenfels (1820-1907), diplomate autrichien, commis de légation au bureau du ministère des affaires étrangères à Vienne (22.07.1843), attaché
à l’ambassade d’Autriche auprès du Saint-Siège (7.12.1843), attaché d’ambassade
à Turin (3.06.1847), chambellan et conseiller intime de S. M. I. et Apostolique
(1849), secrétaire d’ambassade à Paris (1.01.1850-1859), directeur des affaires austrohongroises ad interim à Rome (1859), grand fauconnier héréditaire du duché de
Carinthie (1851) et envoyé extraordinaire et ministre plénipotentiaire près la Con
fédération Helvétique (11.08.1868-1886). En 1859, il épousa Cécile d’Affry, la sœur
de la duchesse Colonna.
150
Baronne d’Ottenfels (1839-1911), née Cécile d’Affry, sœur de la duchesse Colonna,
épousa le baron Maurice d’Ottenfels en 1859. Elle est l’auteur d’un recueil de poèmes,
Bouquet de pensées.
Papa Giulio, lieu où se trouve l’atelier de Marcello à Rome, situé à l’extérieur de la
Porta del Popolo dans le Casino Poniatowski (près de la Villa Giulia).
Émile P errin (1814-1885), peintre, critique d’art et décorateur de théâtre français,
directeur de l’Opéra-Comique de 1848 à 1857, directeur de l’Opéra de Paris de 1862
à 1871, administrateur général de la Comédie-Française de 1871 à 1885.
Duc et duchesse Pozzo di Borgo, amis de Gounod. La duchesse Pozzo di Borgo,
née Victurnienne des Balbes Berton de Crillon (1813-1890), fut une amie fidèle de
la duchesse Colonna, qui se rendit souvent dans sa propriété de Montretout près de
Saint-Cloud. Elle épousa, en 1832, Charles-Jérôme, duc Pozzo di Borgo (1791-1879),
officier français, commandant de la place de Barcelone et colonel du régiment de
Hohenlohe.
Princesse Schwarzenberg (1812-1873), née Eleonora, princesse Liechtenstein, épousa
le prince Johann Adolf II Schwarzenberg (1799-1888) en 1830.
| 4,410
|
58/halshs.archives-ouvertes.fr-halshs-00589639-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,417
| 15,758
|
HANS STIMMANN ET L'URBANISME BERLINOIS (1970-2006) UN TOURNANT CONSERVATEUR DE LA RECONSTRUCTION CRITIQUE?
A Berlin, entre le milieu des années 1970 et le milieu des années 2000, s'est joué en partie, non seulement le destin géostratégique du continent européen, entre Guerre froide et réunification allemande, mais aussi un des plus grands tournants dans l'urbanisme continental depuis la fin de la Seconde Guerre mondiale: celui de l'invention des méthodes concrètes d'un urbanisme 'doux', dans le sillage de la remise en question au cours des années 1960 par des personnages comme, entre autres, Jane Jacobs ou Aldo Rossi, des paradigmes dominants du modernisme architectural et planificateur1. Ces paradigmes avaient trouvé à Berlin, à la faveur des impératifs de la reconstruction, un terrain d'application sans doute inédit en Europe2. Mais c'est aussi à Berlin que se développe la contestation de l'effacement de la trame historique de la ville bombardée au profit d'une ville moderne horssol, l'opposition à la toute puissance du dogme de la modernité infrastructurelle, et surtout la mise au point de techniques alternatives de rénovation urbaine plus respectueuses à la fois de la dimension d'urbanité de la vie des habitants, de l'esthétique historique et de la morphologie urbaine qui s'y rattache. C'est également à Berlin que le dessin à grande échelle d'une ville répondant à ce dessein en 1 J. Jacobs, The Death and Life of Great American Cities, New York, Random House, 1961; A. Rossi, L'architettura della città, Padova, Marsilio, 1966. 2 Pour une synthèse de l'histoire urbaine de la ville: D. Bocquet, Berlin: histoire de l'urbanisme et enjeux contemporains des politiques urbaines, in Berlin, un urbanisme participatif?, Saint-Denis, Profession Banlieue, 2008, pp. 13-36. Pour une illustration de l'esprit de la reconstruction en vigueur après 1945, notamment dans le cadre du Plan Marshall (European Recovery Program): H. Ferrari, ERP und die Stadt Berlin, Wien, Koska, 1961. radical contraste avec toutes les pratiques et théories qui avaient dominé la scène internationale depuis la Charte d'Athènes et l'après-guerre connaît les développements les plus marquants, dans un cadre idéologique paradoxalement tout aussi rigide que mouvant3. Hans Stimmann, présent à Berlin presque sans interruption depuis les années 1970, avant de devenir directeur des services d'urbanisme de la ville entre le début des années 1990 et le milieu des années 2000, a été de tous ces combats et en incarne sous bien des aspects l'esprit, aux côtés par exemple d'un architecte comme Joseh Paul Kleihues. De la contestation des excès traumatiques du modernisme architectural à la mise en place de méthodes alternatives, puis à la validation et à l'extension institutionnelles de ces méthodes, le parcours de Stimmann a été, au sein d'une génération incarnant collectivement toutes ces phases, d'un intérêt tout particulier. L'objet de la présente réflexion, qui s'inscrit dans le cadre d'une étude sur l'évolution des bureaucraties techniques urbaines et des contextes institutionnels ou culturels, des idéologies, représentations et pratiques, qui en gouvernent le fonctionnement, est au travers de la carrière d'un tel personnage, de tenter de mettre à jour les logiques principales qui ont présidé à la transformation non seulement de l'espace construit berlinois, mais aussi des approches européennes à l'urbanisme en général. Lire l'évolution d'une ville, ou d'une idée, au travers d'un personnage est cependant pour l'historien un exercice aussi tentant que risqué4. S'il est indéniable qu'il y eut pour Berlin dans les quinze années qui ont suivi la réunification de la ville une véritable ère Stimmann, et que ce personnage, à la tête des services d'urbanisme de la ville-Land a sur cette période une influence décisive, on ne peut bien sûr tout interpréter au travers ni de ses décisions ni de son destin. De nombreuses mutations significatives ont ainsi été décidées ou mises en oeuvre hors de portée de sa sphère de pouvoir, de compétence ou d'influence, voire contre lui ou malgré lui, et la ville d'aujourd'hui est sans doute autant le fruit de sa vision que celui des limites juridiques, institutionnelles, contextuelles, temporelles et pratiques de celle-ci. L'inertie de décisions prises avant son entrée en fonction (ne serait-ce, on le verra, que celle de lotir une portion de la Potsdamer Sur l'architecture et l'urbanisme à Berlin-Ouest dans cette période, l'Interbau et le rôle de personnages comme Scharoun, Le Corbusier, Gropius, Niemeyer, Taut ou Aalto: G. Trebbi, La ricostruzione di una città: Berlino 1945-1975, Milano, Mazzotta, 1978. En illustration du difficile positionnement de la gauche contestatrice face au legs de la modernité en architecture: H. Hoffmann, Die Charta von Athen: Strömungen und Gegenströmungen, in Von Profitopolis zur Stadt der Menschen, München, Staatliches Museum für angewandte Kunst, pp. 182-188. 4 Pour une réflexion sur les ressorts contemporains du genre biographique en histoire: A.-E. Demartini
, Le
retour au genre biographique
en histoire:
quels renouvellements historiographiques
?, in
A
.
-
M. Mon
luçon-
A.
Salha
(dir.), Fictions biographiques (XIX-XXIe s.), Toulouse, PUM, 2007
,
pp. 77-
89. 3 HANS STIMMANN ET L'URBANISME BERLINOIS (1970-2006) 469 Platz au profit du groupe Daimler) a bien sûr également conditionné son action, de même que les multiples phénomène de path dependence dans lesquels il a dû insérer à son corps défendant, voire à son insu, sa vision et son quotidien. Les études sur le genre biographique, comme celles sur les parcours de la décision, ont depuis longtemps introduit les nécessaires éléments de nuance à toute lecture de l'histoire au prisme d'une personne singulière. Il convient aussi de se garder d'affermir trop le paradigme de la relation entre personnage et époque comme clé de lecture universelle. C'est bien là la limite, par exemple, du pourtant admirable Networks of Power de Tom Hughes, qui fait, dans sa typologie des rapports entre ville et technique, peu rapidement, et en contraste avec Londres et Chicago, de Berlin un paradigme vertueux par la relation entre Siemens et la sphère d'édilité5. Les historiens de l'urbain ont depuis illustré la plus grande complexité des systèmes en jeu. Gardons-nous donc pour le Berlin du tournant du XXIe siècle de tout réduire à la figure de Hans Stimmann et ayons toujours à l'esprit que la ville réelle est toujours, ne serait-ce que par les multiples dimensions d'inertie (historique, sociale, institutionnelle, culturelle, pratique) à l'oeuvre, un objet plus complexe que la simple projection spatiale et sociale de la pensée et de l'action de qui entend ou prétend faire de la ville. Cela a été montré même pour les situations de pouvoir autoritaire, c'est bien sûr encore plus vrai pour une situation de démocratie libérale et de marché immobilier capitaliste, tous deux à Berlin au cours de ces années en pleine redéfinition. L'intérêt pour un personnage spécifique ne doit pas cacher la complexité des parcours de la décision. Que la relation entre Hans Stimmann et Berlin, cependant, soit ici l'occasion non pas seulement d'une lecture déroulante des grands tournants qu'a connu l'urbanisme dans cette ville, mais aussi d'une réflexion sur l'articulation entre mutations du cadre des idéologies et théories urbaines et sphère de confrontation de celles-ci à la réalité urbaine, institutionnelle et pratique, dans un contexte particulièrement significatif. On conçoit aussi cette étude sur le parcours d'Hans Stimmann comme une réflexion sur l'évolution du courant urbain de la rénovation douce, entre contestation et épreuve du pouvoir. A terme, une telle étude a l'ambition de s'insérer dans un effort de prosopographie, voire d'histoire sociale, de la génération IBA à Berlin et d'analyse de son influence sur le devenir de la ville au cours des décennies suivantes, une génération dont Stimmann ne représente qu'une des composantes. Que le choix narratif de lire l'histoire récente de Berlin au travers de la figure de cet urbaniste n'apparaisse pas, en somme, pour autre chose qu'une clé de lecture partielle, devant s'insérer dans un contexte plus vaste et être confrontée à d'autres dimensions de l'évolution urbaine et sociale
. 5 T.P. Hughes, Networks of Power, Baltimore, John Hopkins Press, 1983. 470 Denis Bocquet Génération IBA, critique des paradigmes dominants de la modernité architecturale et regard vers Berlin-Est Hans Stimmann est né en 1941 sur les bords de la mer Baltique,
la ville hanséatique de Lübeck. Après une formation initiale tournée précocement vers la technique, avec une orientation en direction des métiers du bâtiment, il parvient en 1965 à obtenir un diplôme d'ingénieur-architecte, et à intégrer une formation spécialisante à Francfort, où il exerce aussi la profession d'architecte. Il n'arrive ainsi pas à l'urbain uniquement par la voie d'une l'architecture tournée d'emblée vers la réflexion et la théorie urbaine, mais plutôt par celle d'études validant, dans le système scolaire allemand de l'Après-guerre, une certaine ascension sociale par le mérite technicien et la formation continue. C'est de cette époque que date aussi son engagement politique: en 1969, il adhère au SPD, le parti social-démocrate d'Allemagne de l'Ouest. C'est l'année suivante, en 1970, qu'il s'installe à Berlin. Il a déjà 29 ans et poursuit, entre parti et université, sa formation d'urbaniste. Il parvient en 1975 à intégrer l'école doctorale en planification urbaine et régionale de la Technische Universität de cette ville (Institut für Stadt- und Regionalplanung), et en obtient le titre de docteur en 1977. En parallèle à sa formation académique, Hans Stimmann s'affirme au sein du parti social-démocrate comme expert en matière urbaine et architecturale et comme animateur important des débats urbains qui à l'époque agitent la ville. Berlin-Ouest est en effet la ville de la contestation du capitalisme et de ses dérives immobilières et spéculatives, de l'agitation estudiantine et des expériences sociales et urbaines. Kreuzberg tend à en devenir le coeur battant, ainsi que le front de batailles multiples, mais qui toutes fondent la cohérence (fragile ensuite à l'épreuve du temps), puis la mythologie, d'une génération d'étudiants et squatters. Tel est le contexte dans lequel en 1977, Stimmann, qui lui semble assez en retrait par rapport à cette effervescence, est nommé expert technique auprès du Senator für Bau- und Wohnungswesen de Berlin Ouest. C'est son premier pas dans la bureaucratie planificatrice. C'est aussi un pas dans la hiérarchie intellectuelle et opérationnelle du parti. Il vit donc la fin des années 1970 à Berlin dans une position presque de médiateur culturel entre deux générations: celle de la contestation urbaine, des études d'urbanisme et de la maturation de nouveaux paradigmes et celle qui occupe encore, au sein de coalitions changeantes, la sphère du pouvoir au Sénat, l'administration de la ville. Il affirme aussi à cette époque sa position académique par la participation à de nombreux colloques et par diverses publications Mais ce n'est pas à Berlin que cet effort porte ses fruits: en 1980, Stimmann obtient un poste de chercheur à l'Université technique de Hambourg, dans le département de planification urbaine et régionale. Mais il continue d'investir l'essentiel de son activité de recherche (et d'engagement civique) dans le contexte berlinois de l'effervescence IBA. Car à Berlin HANS STIMMANN ET L'URBANISME BERLINOIS (1970-2006) 471 (Ouest) s'est ouverte en effet depuis 1977, en perspective du 750e anniversaire de la ville en 19876, une nouvelle ère, qui sera cruciale pour l'urbanisme européen: celle de l'Internationale Bauausstellung. L'IBA, qui contrairement à son aînée Interbau de 1957 ne porte pas sur une aire spécifique, mais qui répond au souhait de se détacher de cette manière de concevoir l'urbanisme et est plutôt conçue comme occasion de confronter idées nouvelles et besoins dispersés de la ville, comporte deux sections: l'une, Neubau, dirigée par Josef Paul Kleihues7, est consacrée aux constructions nouvelles, l'autre, Altbau, dirigée par Hardt-Waltherr Hämer, à la rénovation urbaine. Le point commun de ces deux sections est de ne pas poser comme présupposé à l'action urbanistique la table rase héritée de la guerre ou des démolitions ayant suivi pour mettre en oeuvre un programme moderne, mais de concevoir la préservation du tissu meurtri comme priorité. L'exposition, ainsi, va devenir progressivement le cadre pratique d'un fort tournant théorique en cours depuis plusieurs années de refus des excès du modernisme, et un événement autour duquel et au sein duquel vont se fédérer, se confronter et se conforter, des visions en ce sens issues de toute l'Europe et d'Amérique. Il y a bien de la sorte, dans le Berlin du début et du milieu des années 1980, une génération IBA en cours de constitution. En son sein vont se construire expériences et prises de positions, amitiés, complicités (mais aussi déjà rivalités et nuances idéologiques et esthétiques dans l'approche de la place de l'innovation architecturale dans la ville ainsi reconsidérée). Par l'émergence de cette génération et l'élan institutionnel qui lui est donné, Berlin, s'appuyant sur les impulsions théoriques issues tant des Etats-Unis que d'Italie, sort de l'autoroute de la modernité pour inventer pour elle-même les rues calmes de l'urbanisme doux. Le concept de reconstruction critique, dans lequel l'attention à l'hérité, à la trame urbaine, aux échelles de l'urbanité, aux strates antérieures et aux usages mixtes sont des points déterminants, façonné dans ce contexte, est le principal legs de ce mouvement. Mais l'IBA, paradoxalement, est aveugle à ce qui se passe à l'Est: pas même une once de rhétorique utopique sur la perspective, un jour, d'une réunification, pas même une curiosité pour le tournant contemporain, certes moins sonore, idéologie oblige, mais tout aussi significatif, qui est en train d'être pris à l'Est. Presque rien sur les possibles stratégies urbaines d'une éventuelle couture. On a beau prendre au sein de l'IBA ses distances avec la ville laissée par Hans Scharoun, notamment dans l'enclave de la Philarmonie et de la Staatsbibliothek, entre 6
Sur
ces commémorations,
voir: T
. Krijn, Drei Geschichten, eine Stadt: die Berliner Stadtjubiläen von 1937 und 1987, Cologne, Böhlau, 2008. 7
J
.
P.
Kleihues
(Hg.), Internationale Bauausstellung Berlin 1984/87: Die Neubaugebiete,
Stuttgart
, Hatje, 1989. Avec une préface de Wolfgang Nagel, Senator für Bau-und Wohnungswesen. 472 Denis
Bocquet mur et Tiergarten, et plus encore du pesant héritage post-Scharoun des années 1960 et 1970 au Kulturforum notamment, mais aussi dans les quartiers périphériques, on a du mal à concevoir la ville dans son ensemble. Or Hans Stimmann, lui, se passionne non forcément encore pour de possibles pistes de réunification, on en est même très loin, tant l'hypothèque géostratégique est encore lourde dans l'esprit de chacun, mais pour la mutation en cours dans la pensée et la pratique urbaines en RDA. Tout au long des années IBA, il s'en trouve dans une situation paradoxale: académiquement, politiquement, amicalement et intellectuellement proche du petit monde qui trouve dans l'IBA l'opportunité formidable de se forger une cohérence (et un débouché professionnel à la visibilité internationale), il en est pourtant réduit, lui qui désormais s'intéresse d'un point de vue universitaire à ce qui se passe à l'Est de la ville, à une position marginale. Il est certes moins avancé dans la carrière que ses aînés Kleihues et Hämer, et se trouve encore dans une position subordonnée par rapport à ces personnages. Pendant les dix années de l'IBA, Hans Stimmann sera cependant de tous les débats sur Berlin, mais en tant que spécialiste, presque unique à vrai dire, la ville close de l'autre côté du mur: expert de BerlinEst. Une position qui fera de lui un recours logique au début des années 1990 pour un monde politique et urbain berlinois (Ouest) désireux de se forger une légitimité à l'Est sans bien sûr s'ouvrir, pour cause certes de bienvenue méfiance idéologique face à de potentiels complices de la dictature, mais aussi d'autisme culturel, aux compétences présentes dans cette partie Est de la ville. Hans Stimmann, en somme, au sein de la génération IBA, demeure perçu comme un visiteur de la Baltique, technicien d'origine et spécialiste de l'Est. Il n'appartient pas vraiment, tout en en cotoyant les acteurs, à la sphère de renommée que suscite l'IBA. Ce qui ne l'empêche pas malgré tout de tisser ses réseaux politiques et professionnels. Il participe ainsi en 1981 à un numéro spécial de Bauwelt, une revue à laquelle il contribue régulièrement, sur l'architecture de l'après-guerre. C'est dans la généalogie de la rupture de l'opinion architecturale dominante en Allemagne avec le modernisme un numéro important. Il y apparaît bien sûr, avec Dittmar Machule, en tant qu'expert de la situation à Berlin-Est, et, tout en dressant un sage tableau de l'histoire urbaine de la RDA, regrette qu'aussi peu d'attention soit accordée à l'Ouest à ce qui se passe à l'Est8. Malgré sa déception, déjà, de voir la génération IBA se désintéresser de l'autre moitié de la ville, il confirme Berlin-Est comme son principal terrain de recherche et l'IBA comme son port d'attache intellectuel9. 8
D. Machule-H. Stimmann, Auf der Suche nach der Synthese zwischen heute und morgen, «Bauwelt», 72, 1981, 48, pp. 383-390. 9 Sur l'histoire de l'architecture et de l'urbanisme à Berlin-Est: W. Durth-J. Düwel-N. HANS STIMMANN ET L'URBANISME BERLINOIS (1970-2006) 473
Stimmann participe aussi en 1982-1983 à l'initiative collective d'un groupe de chercheurs qui débouche, en 1984, sur une publication très critique, tant à l'égard de ce qui s'est passé avant l'IBA que contre ce qui continue de s'y passer en marge10. La brochure, au style presque pamphlétaire, se conclut par un appel à la fin des destructions. Elle constitue le point culminant de la phase pré-institutionnelle d'une reconstruction critique en cours de théorisation et, justement dans l'IBA, d'institutionnalisation. Stimm , comme à son habitude désormais, présente la situation à l'Est. Il y décrit la genèse des pratiques de la «reconstruction complexe», mais conclut par une dénonciation de l'absence de débat à l'Est sur l'héritage des pratiques des décennies précédentes11. Il souligne l'importance de la prise en compte dans la rhétorique socialiste sur la ville, de l'héritage de la ville des Mietskasernen. Pendant ce temps, au sein de l'IBA, puis du STERN, son émanation en terme de politique de la ville (et d'atterrissage salarial d'un certain nombre d'architectes et d'urbanistes de Berlin-Ouest), les points principaux du positionnement théorique et pratique sont fixés, de la recherche des moyens de sauver les bâtiments existants, même dégradés, à l'impératif de préserver la trame urbaine ou à la participation citoyenne12. Berlin devient un modèle en Europe et la rénovation douce un slogan. Se rendant plusieurs fois de l'autre côté du mur, pour de courtes excursions cependant13, et sans réel contact avec les collègues urbanistes et architectes, dont Gutschow, Architektur und Städtebau der DDR: die frühen Jahre, Berlin, Jovis, 2007; A. Butter-U. Hartung, Ostmoderne
: Architektur in
Berlin 1945-1965, Berlin, Jovis, 2004;
F
. Urban, Berlin/ DDR, neo-historisch
. Geschichte aus
Fertigteilen,
Berlin
, Mann
, 2007; P. Müller, Symbolsuche. Die Ost-Berliner Zentrumsplanung zwischen Repräsentation und Agitation, Berlin, Mann, 2005. 10 R. Autzen-H. Becker-H. Bodenschatz-H. Claussen-D. Radicke-H. Stimmann-M. Taeger, Stadterneuerung in Berlin. Sanierung und Zerstörung vor und neben der IBA, Berlin, Ästhetik und Kommunikation, 1984. Voir aussi: H. Bodenschatz-V. Heise-J. Korfmacher, Schluss mit der Zerstörung? Stadterneuerung und Städtische Opposition in West-Berlin, Giessen, Anabas, 1983. Egalement: H. Bodenschatz, Platz frei für das neue Berlin, Berlin, Transit, 1987. Comme expression du milieu contestataire: R. Hirsch-Borst-S. Krätke-F. Schmoll, Stadterneuerung ohne Spekulanten, Berlin, Colloqium, 1982. 11 H. Stimmann, Vom sozialistischen Neuaufbau zur komplexen Rekonstruktion: Stadterneuerung in Ost-Berlin, in Stadterneuerung in Berlin, cit., pp. 44-49. 12 Pour une présentation synthétique des principes de la rénovation douce issus de l'IBA: H.W. Hämer (Hg.), Step by Step. Careful Urban Renewal in Kreuzberg, Berlin, STERN, 1989; Id., Behutsame Stadterneuerung Berlin. Stadtentwicklungsstrategie für die Zukunft, in G. Blomeyer-M. Cullen-R. Milzkott (Hg.), Zentrum Berlin: Szenarien der Entwicklung, Actes du colloque (2425 octobre 1990, Berlin), Berlin, Nicolaische Verlagsbuchhandlung Beuermann, , pp. 122123. Voir aussi H. Becker, Vom Kahlschlag zum behutsamen Umgang mit der alten Stadt, in P. Marcuse-F. Staufenbiel (Hg.), Wohnen und Stadtpolitik inm Umbruch, Berlin, Akademie, 1991, pp. 88-96. Sur le célèbre bloc 103 à Kreuzberg: P. Beck (Hg.), Kreuzberg Kreisläufe. Block 103: ein Model für umweltorientierte behutsame Stadterneuerung, Berlin, Stern, 1987. 13 D. Bocquet-T. de Ruyter, Berlino a corto di idee (entretien avec Hans Stimmann), «Il 474 Denis Bocquet il lit plutôt l'évolution (encadrée) de la pensée dans une revue comme «Architektur der DDR» ou dans les publications de la Bauakademie de Berlin-Est, il publie en 1985, profitant des presses de l'IBA dirigées par Hardt-Waltherr Hämer, mais sans vraiment s'inscrire dans l'euphorie de la théorisation de la reconstruction critique et de la rénovation douce, une brochure importante sur le changement d'approche en cours en République démocratique14. Il y décrit et analyse les expériences menées à Arnimplatz (Prenzlauerberg), Arkonaplatz (Mitte) et sur la Frankfurterallee, et surtout la mise en place de ce qui est nommé à l'Est la reconstruction complexe. Soit, à la suite de la décision en 1979 d'arrêter la destruction du tissu ancien (le SED, le parti unique qui domine tous les rouages de la dictature, avait encore en 1976 décidé de la destruction programmée de 80000 logements anciens endommagés par les bombardements de 1945 ou simplement obstacles à l'avancée de la ville socialiste) et d'aborder avec un regard nouveau le rapport à l'histoire15, le développement d'une vision urbaine qui, sans rompre avec le dogme économique marxiste de l'architecture industrialisée, fasse le deuil de l'omniprésence d'un moderne élevé au rang d'affichage idéologique. Un tournant culturel, en somme, tout aussi fort sans doute que celui en cours à l'Ouest, comme le découvre pour le moins naïvement Hämer dans sa préface à la brochure de Stimmann. Cette même préface relate aussi la visite, à l'invitation du SPD, d'une délégation d'urbanistes du SED à Berlin-Ouest menée par Roland Korn durant l'été 1984, pendant laquelle les idées et réalisations de l'IBA ont été montrées. Stimmann jouait là un éphémère rôle de contact entre partis. La guerre froide, pourtant, allait reprendre ses droits. Ces contacts, de toute façon, ne serviront pas à grand chose d'autre qu'à la construction de la légitimité, plus tard, de Stimmann, tant les individus intéressés auront tous été évincés, des responsables et idéologues du SED naturellement, aux urbanistes critiques passionnément investis dans le sauvetage de leur ville malheureusement aussi. Hans Stimmann, dans sa frustration face à une IBA qui finalement aura été aveugle à l'Est16, ne trouve pas les débouchés, ni professionnels ni politiques, qu'il aurait sans doute souhaités. A la fin de son contrat de recherche auprès de l Université technique de Hambourg
,
il passe un an en tant qu'expert indépendant. Giornale dell'Architettura», VIII, 2009, 78, p. 4.
14 H. Stimmann, Stadterneuerung in Ost-Berlin, vom'sozialistischen Neuaufbau zur 'komplexen Rekonstruktion', Berlin, IBA, 1985. Sur ce sujet, voir aussi: R. Strobel, Before the Wall came Tumbling Down: Urban Planning Paradigm Shift in a Divided Berlin, «Journal of Architectural Education», 48, 1994, 1, pp. 25-37. 15 F. Urban, Berlin/DDR, neo-historisch, cit. 16 Sur ce point, voir aussi: W. Miller, IBA's Model for a City: Housing and the Image of Cold War Berlin, «Journal of Architectural Education», 46, 1993, 4, pp. 202-216. Mais, Berlin-Ouest étant, en ce point culminant, mais aussi final de l'IBA, le terrain privilégié de collègues ayant choisi une voie plus facile, il prépare surtout son retour à Lübeck, où le SPD s'apprête à lui faire une place de choix dans son organigramme municipal. En 1986 il devient ainsi Bausenator, adjoint au maire chargé de l'urbanisme. La période 1987-1990, pour les deux parties de Berlin, est marquée par une absence de communication. L'Ouest fête dans l'IBA sa révolutionnaire rupture avec le modernisme et son nouveau statut, célébré de Tegel à Kreuzberg, d'icône d'un nouvel urbanisme à l'européenne. L'Est au Nikolai Viertel et dans les premières rues de Mitte préservées, sa réconciliation avec l'histoire, au travers du travail d'un urbaniste comme Günter Stahn. Et Hans Stimmann, loin de Berlin, son somme toute surprenant statut de notable hanséatique et social-démocrate. Mais cette phase aussi va lui servir à acquérir une plus grande influence et une plus grande épaisseur de personnalité au sein du parti. En 1988, lors d'un colloque organisé par la Bauakademie de la République démocratique, les plus grands responsables Est-allemands de l'urbanisme et de l'architecture réfléchissent aux directions à donner à leur travail dans les années 1990: amélioration de la qualité de construction des logements sociaux, prise en compte des nouvelles méthodes de rénovation urbaine dans les centres anciens. Les résultats de ce colloque sont publiés en 199017, quelques semaines avant la chute du mur. Mais cette génération d'urbanistes n'aura en aucun cas son mot à dire dans les choix qui suivront. Malgré un mouvement de grand intérêt pour les méthodes de l'IBA et du TERN, la société qui en a pris la suite, l'Est sera considéré comme réceptacle plus que comme partenaire, et dans le domaine de l'urbain comme dans bien d'autres, la réunification sera pour l'Est, au moins dans ses premières phases, plus une annexion qu'une intégration18. C'est à ce moment qu'aux partis berlinois qui viennent d'étendre singulièrement vers l'Est leur aire de compétence, mais peinent à trouver pour ces quartiers et pour la mise au point d'une vision globale les personnages adéquats, la figure d'Hans Stimmann s'impose. Il est un membre éminent du parti social-démocrate de l'Ouest, il a la E. Deutschmann (Hg.), Entwicklung von Städtebau und Wohnungsbau in den 90er Jahren, Berlin, Bauinformation DDR, 1990. Voir particulièrement les textes de Peter Goralczyk sur la protection du patrimoime, et de Bernd Grönwald, sur un bilan de la saison de construction intensive qui s'achève à ce moment. 18 Comme exemple d'acclimatation culturelle des idées de l'IBA à l'Est juste après la chute du mur: F. Röhr, Bürgerbeteiligung und Stadterneuerung, «Architektur» (anciennement «Architektur der DDR»), 12, 1990, p. 53. Sur le destin de la génération des architectes de l'Est après 1990: W. Kil, Endlich auf eigene Verantwortung! DDR-Architekten und die Chancen der Wende, «Baumeister», 11, 1999, pp. 25-33. 17 476 Denis Bocquet
culture de l'IBA, a longtemps fréquenté tous les protagonistes de l'aventure de la reconstruction critique ainsi que des luttes de faction au sein du SPD et des coalitions au Sénat, et connaît les enjeux se présentant à l'Est. Wolfgang Nagel sera celui qui le fera revenir à Berlin19. Le tournant de 1990: la reconstruction critique face à de nouveaux horizons pragmatiques, institutionnels et spatiaux Hans Stimmann vit la période de la chute du mur depuis les bords de la Baltique, figure locale à Lübeck, mais marginalisé tant par rapport à l'impensable qui est en train de se passer dans le destin géopolitique de Berlin que par rapport aux transformations post-IBA, qui voient toute une génération se reconvertir dans les nouvelles modalités de la politique urbaine à la berlinoise. Stimmann n'était à la fin des années 1980 ni une des figures gagnantes de la saison IBA ni somme toute un visionnaire du tournant en cours, malgré son intérêt quelques années auparavant pour l'Est. Son premier projet d'urbanisme post-1989 sera un parking aux abords du centre-ville de Lübeck afin que les Trabant venues de la proche bientôt ancienne frontière ne viennent pas de leurs couleurs kitsch et leurs effluves abondantes gâcher un cadre patrimonial de la ville hanséatique que l'Unesco venait en 1987 d'inscrire à la liste des sites du patrimoine mondial20. Il serait tentant d'affirmer que tout est dit dans cette métaphore du rapport de l'urbaniste de l'Ouest, éminemment de l'Ouest, à la chute du mur, au patrimoine, à l'urbanité: l'Est comme facteur d'inculture urbaine à apprivoiser et endiguer et une vision conservatrice d'un patrimoine figé sur une période d'âge d'or. Mais ce ne serait peut-être pas faire justice d'un contexte plus complexe, autant à Lübeck qu'à Berlin. Reste que le Stimmann du parking de Lübeck incarne déjà par bien des aspects une déclinaison conservatrice de la reconstruction critique et dénote une évolution significative dans la manière qu'a le personnage d'aborder les questions urbaines. C'est à ce moment, à la suite des élections de juin 1990 en RDA, dans la partie Est de Berlin (on est encore quelques mois avant la réunification formelle des deux Etats allemands), qui voient le SPD (34%) devancer l'ancien parti unique (30%), que ses camarades de parti berlinois lui demandent de les rejoindre dans la ville en cours de réunification. Wolgang Nagel, Sénateur, c'est-à-dire adjoint au maire dans cette ville-Etat qu'est Berlin, chargé de l'urbanisme, lui propose 19 Voir, par ce même personnage, une analyse de la situation berlinoise au moment de la réunification: W. Nagel, Unter dem Brennglas des Einigungsprozesses, in C. Ude (Hg.), Wege aus der Wohnungsnot, München, Piper, 1990, pp. 228-240. 20 D.Bocquet-T. de Ruyter, Berlino a corto di idee, cit. HANS STIMMANN ET L'URBANISME BERLINOIS (1970-2006) 477 de prendre la tête des services sénatoriaux d'urbanisme (Senatsbaudirektor au sein de la Senatsverwaltung für Bau- und Wohnungswesen). Hans Stimmann restera à ce poste jusqu'en à sa retraite à la fin de l'année 2006 (le service prend en 1991 le nom de département de la Stadtentwicklung). Seule parenthèse: au moment, entre 1996 et 1999, d'une éclipse du SPD face aux chrétiens-démocrates de la CDU pour ce qui concerne l'urbanisme au sein des coalitions au pouvoir au Sénat, Stimmann devient Senatssekretär, un poste dans lequel il s'emploie cependant à éviter le démantèlement de ses mesures précédentes et prépare, autour du projet de Planwerk Innenstadt, un retour pour une nouvelle phase de son action. Le poste est stratégique: avec la réunification de la ville, les services du Senatsbaudirektor se voient en charge non seulement de la gestion d'un quotidien devenu exaltant, mais aussi de la redéfinition d'un partie importante du système normatif qui régit l'urbanisme. La tâche qui se présente devant Stimmann est bien sûr énorme: penser la couture de la cicatrice du mur, préparer l'installation bientôt programmée du gouvernement fédéral, lotir de grandes portions de no man's land21, comme la Potsdamerplatz, pour en faire de la ville, étendre à l'Est les pratiques de la reconstruction critique, assainir les quartiers de logement social à l'Est, dont certains n'ont pourtant été livrés que quelques années auparavant22, penser la symbolique architecturale de la nouvelle Allemagne dans sa future capitale (la Pariserplatz sera pour cela le terrain le plus exposé aux regards), et tant d'autres tâches encore, comme celle consistant à penser le remplissage des nombreux vides qui restent encore de la Guerre, même en plein centre (on pense à l'axe de la Friedrichstrasse), dans le contexte d'une conjoncture immobilière moins porteuse qu'espéré23. Pour Stimmann, en revenant à Berlin, la question est aussi de réactiver des réseaux de connivence, et de mettre en place une méthode de travail. La ville est sous le regard du monde, et le milieu professionnel et intellectuel de l'architecture a trouvé là un terrain d'expression renouvelé. Stimmann doit faire des choix, établir des priorités et des hiérarchies, dans le contexte d'un système immobilier en pleine mutation vers un retour de la propriété privée comme base 21
Sur
cette question
: A. Luescher, Refashioning No-Man's-Land: Urban Image Politics and the Visual Dimension of Democracy, «Cities», 19, 2002, 3, pp. 155-160.
22 Mais les quartiers de logement social à l'Ouest aussi, comme le Märkisches Viertel, vieillissaient mal: H. Bodenschatz, Neubaugebiete werden alt. Die Erfahrung Berlin (West), in P. Marcuse-F. Staufenbiel, Wohnen und Stadt
, cit., pp. 97-107. 23 Pour une synthèse, par Hans Stimmann lui-même, de son action à la tête des services berlinois d'urbanisme: H. Stimmann-M. Kieren (avec le photographe Erik-Jan Ouwerkerk), Die Architektur des neuen Berlin, Berlin, Nicolai, 2005. 478 Denis Bocquet de la trame urbaine24. L'urbaniste est donc loin d'avoir tous les instruments en main, mais se trouve dans une configuration où son rôle promet d'être déterminant. Son terrain d'action sera le champ normatif
,
celui
du
plan,
et la tutelle sur les principaux concours et compéti
tions. Stimmann n'est bien sûr toutefois qu'un des acteurs d'une transformation bien plus vaste, qui implique dans les processus de décision, entre autres, les rouages politiques locaux ainsi que fédéraux, des bureaucraties complexes dont il est loin de détenir toutes les clés, les grandes sociétés immobilières, une sphère de réflexion urbaine dont Stimmann n'est qu'un des acteurs et en général une société urbaine en pleine mutation. Stimmann hérite de plus pour mener son action des bureaux d'urbanisme de l'Ouest, au sein desquels il s'adjoint peu à peu des compétences complémentaires, elles-aussi le plus souvent issues de l'Ouest. Le domaine de la réflexion et de la proposition, spontanée ou encadrée, est d'ailleurs loin d'être vierge25. Les revues du monde entier se remplissent de mois en mois d'idées pour Berlin. Quelques semaines après sa prise de fonctions, au début de l'année 1991, le Deutsches Architektur Museum de Francfort et la Frankfurter Allgemeine Zeitung lancent ainsi une grande consultation sur l'avenir de Berlin26. S'y dessine une ville des possibles, dans laquelle une vision héritée de la reconstruction critique pourrait s'articuler à une ambition moderniste renouvelée (le concours d'idées laisse aussi beaucoup de place à une surenchère redondante dans le maniement du symbole). Mais Stimmann choisit d'autres ancrages, et d'autres parcours, qui font une place de choix à une vision plus conservatrice, mais peut-être aussi plus rassurante d'un point de vue politique, de ce que doit devenir la ville: un espace de symbolique nationale apaisée dans lequel les méthodes de la reconstruction critique servent de support à un remplissage historicisé des vides marquant encore le paysage urbain27. Pour ce qui concerne l'architecture, des personnages comme Kleihues et Kollhoff constitueront log des références centrales. Sous la tutelle Sur ce point: H. Stimmann, Bodenpolitik zwischen Restitution und Investition, in Die Architektur des neuen Berlin cit., pp. 38 et suivantes. 25 A l'automne 1990, sous l'égide de Wolfgang Nagel, le Sénat publie un point prospectif sur l'urbanisme à Berlin: Stadterneuerung Berlin: Erfahrungen, Beispiele, Perspektiven, Berlin, Senat, 1990. C'est Ernst Kristen, et non Stimmann encore, qui rédige la partie consacrée à l'Est. 26 Cf. B. Flierl, Berlino dagli anni Ottanta alla riunificazione, in Berlino: la costruzione di una città capitale, a cura di L. Spagnoli, Milano, Città Studi, 1993, pp. 135-154: 154. Parmi les participants: Venturi, Isozaki, Rossi, Grassi, Ungers, Kleihues, Kollhoff. 27 Pour George Murray, la reconstruction critique perd alors son sens critique. Elle adopte une part du langage moderne sans se confronter à l'héritage que celui-ci porte.
G. Murray
, Paradoxes
of Political Architecture: What's 'Critical' about the Critical Reconstruction of Berlin?, paper
presented at the annual
meeting of the American Sociological Association
(
Philadelphia
, 2005), http://www.
allacademic
.com/meta/p23259_index.html. des bureaux d'Hans Stimmann, l'héritage de la reconstruction critique tend à être réinterprété dans une dimension plus statique, oubliant largement la dimension d'expérimentation, de recherche et de proposition pourtant présente aux fondements mêmes de l'IBA. Le concept de reconstruction critique, en somme, devient l'outil d'un programme dont les attendus ont changé et la méthode tend à devenir rassurante recette. L'extension à l'Est des méthodes de régénération urbaine mises au point au cours de la décennie précédente à l'Ouest est à première vue, au moins pour l'aspect de patrimonialisation des quartiers historiques, la dimension la plus consensuelle dans son contenu, au moins formel, de l'oeuvre d'Hans Stimmann28. Aidé en cela par l'afflux de subventions qui irrigue Berlin, et aussi par la grande mutation sociologique qui rapidement s'amorce de Mitte à Prenzlauerberg et Friedrichshain, voyant ces quartiers confirmer leur attrait pour une bourgeoisie culturelle branchée bientôt avide d'appartements rénovés, l'urbaniste sénatorial parvient à canaliser sans trop de peine un mouvement par ailleurs déjà amorcé avant la chute du mur. Traitement des cours intérieures, des façades, des passages, normes pour la rénovation des immeubles, extension des règles de circulation douce, l'ensemble paraît généralement cohérent d'un point de vue formel, si l'on excepte bien sûr l' thèque sociale de la gentrification et l'exclusion progressive du marché immobilier des couches sociales d'habitants de Berlin-Est n'ayant souvent pas retrouvé un accès au marché du travail et restant en masse confinés au statut de chômeurs, puis, après les réformes Schröder, de Harz IV29. En cela, Stimmann a transposé à Mitte et Prenzlauerberg une culture issue d'un Kreuzberg déjà post-alternatif et post-squatt: la rigueur des normes imposées découle directement de la culture de la reconstruction critique, dans une déclinaison politiquement orientée. Le tournant idéologique au sein de la génération IBA avait été pris avant lui. Moins consensuel est le moyen bureaucratique et technique de mettre en oeuvre ce programme: Hans Stimmann reprend à son compte, et accentue dans le choix de ses collaborateurs, la tendance à évincer les professionnels issus de l'Est. Sa prise en main du destin des quartiers centraux est aussi une mainmise de l'Ouest sur l'Est, et, d'un point de vue de sociologie du travail, des urbanistes ayant fait leurs armes dans l'IBA et le STERN sur une partie de la ville
28 Sur ce point: H. Stimmann, Abschied von den stadtplanerinschen Utopien der Moderne. Die 'Kritische Rekonstruktion' als Methode städtbaulicher Projekte, in Die Architektur des neuen Berlin, cit., pp. 52 et suivantes. 29 Sur les processus de gentrification: M. Levine, Government Policy, the Local State and Gentrification: The Case of Prenzlauerberg, «Journal of Urban Affairs», 26, 2004, 1, pp. 99-108. Sur la fracture grandissante entre centre gentrifié et périphéries en déclin: H. Häussermann, Berlin: von der geteilten zur gespaltenen Stadt?, Opladen, Leske, 2000. 480 Denis Bocquet
nouvellement acquise à leur aire de compétence. D'une manière générale, et cette fois surtout pour Mitte, où de nombreux terrains vagues sont encore à construire 45 ans après les bombardements, les normes de 1991-1992, élaborées par Hans Stimmann et ses services façonnent l'image d'une ville ayant fait le choix résolu de se tourner vers une histoire ayant ses racines dans les XVIIIe et XIXe siècles, et non par exemple dans l'avant-garde berlinoise des années 1920, et encore moins dans un après-guerre honni30. L'historicisme est sélectif, ciblé, et correspond à un dessein esthétique dont les échos idéologiques sont forts. Hauteurs, lignes verticales, alignements sont autant de contraintes au dessin des architectes qui forment un moule rigide mais efficace pour remodeler une impression urbaine référencée31. La notion de bloc, ces îlots à la berlinoise qui constituent l'élément essentiel de la trame urbaine, et que puis le plan Hobrecht au moins on avait construits avec des façades sur les quatre côtés, laissant en milieu d'îlot de vastes cours (le plan d'Hobrecht avait dans les quartiers ouvriers favorisé, sans la planifier, la construction des Mietskasernen par le mitage de ces cours), est également au centre de la pensée de l'urbaniste Stimmann32. Le bloc assure au tissu urbain en cours de reconstitution une cohérence puissante. Il affirme aussi puissamment, de même que les normes de construction, le refus de tout déconstructivisme. Pour Stimmann, redonner à la ville cet aspect si caractéristique d'un Berlin pré-1945 est un des points essentiels. Il s'inscrit en cela dans la continuité de l'IBA qui avait, à Kreuzberg, beaucoup travaillé sur la notion de bloc, tout en restreignant encore dans un sens conservateur l'étendue des possibles digressions, notamment chromatiques. Stimmann appuie fortement l'esthétique de la pierre polie, ou Sandstein. On peut aussi voir dans cette idéologie un écho des prises de positions des décennies précédentes contre l'héritage de l'après-guerre. C'est ainsi que le long de la Friedrichstrasse s'étend le Berlin de Stimmann. Pour Gerwin Zohlen, ces débuts sont marqués par une réduction des principes de la reconstruction critique à un «consensus minimal»33 autour de principes simpli30
Sur le rapport à l'histoire: B. Ladd, The Ghosts of Berlin. Confronting German History in the Urban Landscape, Chicago, University of Chicago Press, 1997. Du même auteur, voir une analyse du lien entre planification urbaine et dimension civique: Id., Urban Planning and Civic Order in Germany (1860-1914), Cambridge, MA, Harvard University Press, 1994. 31
Stimmann
s
'est un
jour
défen
du, dans une interview, d'être un dictateur du goût
:
Ich
bin
doch kein Geschmacksdiktator, «Berliner Zeitung», 29
avril 2000.
32 Sur Hobrecht: C. Bernet, The Hobrecht Plan (1862) and Berlin's Urban Structure, «Urban History», 31, 2004, 3, pp. 400-419. Sur les Mietskasernen: W. Hegemann, Das steinerne Berlin. Geschichte der grössten Mietskasernenstadt der Welt, Berlin, Kieperheuer, 1930. 33 G. Zohlen, Auf der Suche nach der verlorenen Stadt. Berliner Architektur am Ende des 20. Jahrhundert, Berlin, Nicolai, 2002, p. 72.
Hans Stimmann a, quant à lui, souvent parlé d'un accord négocié. Par exemple:
H
. Stimmann, Versuch eines Berliner Abkommens für eine Architektur der HANS STIMMANN
ET L'URBAN
ISME BERLIN
OIS
( -2006) 481 fiés (et réinterprétés), dont l'urbaniste donne la définition dans la revue Bauwelt: reconstuire le réseau viaire historique, imposer une hauteur maximale de 22m à la plupart des constructions, une proportion minimale de 20% de logements et deux principes fondamentaux: l'échelle maximale d'une opération est le bloc, les immeubles occupent tous les cotés du bloc34. Un consensus qui d'ailleurs n'en est pas un: très vite à Berlin s'échauffent les passions et Stimmann devient la cible d'intenses attaques polémiques. Quant à la Pariserplatz, en arrière d'une porte de Brandenburg à la symbolique urbaine recouvrée, elle devient le lieu de l'application la plus sage des préceptes de Stimmann. Les normes y constituent la partition d'une ville pensée dans l'auto-référence à des formes disparues. Non point dans l'identique, car il n'en est jamais question, mais dans la recherche d'une évocation efficace et sûre, qui restaure l'impression urbaine sans affronter le passé, et pose la ville contemporaine sans trop ouvrir, justement, au contemporain. Chacun des bâtiments de la Pariserplatz résume, dans son histoire spécifique, un moment du rapport, ou un aspect des termes de celui-ci, entre la sphère normative, idéologique et de représentation de la ville incarnée par Stimmann et les commanditaires, les investisseurs ou l'opinion architecturale internationale. Si Stimmann n'est pas le chef d'orchestre absolu de ce mouvement, et si les pressions et accommodements, les médiations et les conflits jouent leur rôle, l'urbaniste n'en incarne pas moins un choix clair. L'objet le plus caricatural de cette logique est bien sûr l'Hôtel Adlon, dont la construction, selon une logique néo-historique, a été confiée aux architectes Patzschke, Klotz & Partners par le groupe immobilier Fundus35. L'ambassade de France, de Christian de Portzamparc, produit plus complexe, est le résultat de nombreuses médiations entre le système normatif stimmannien et les souhaits d'un architecte connu surtout à ce moment-là pour son concept d'îlot ouvert. Si les normes ont encadré strictement l'expression de l'architecte en façade, dans un contexte foncier qui plus est difficile, le terrain donnant sur des murs aveugles, l'espace intérieur dénote une volonté d'échapper quelque peu à cette logique. Mais seules la DG-Bank de Frank Owen Gehry, et dans une certaine mesure l'Akademie der Künste de Günter Behnisch et Manfred Sabatke sont la marque réelle d'une distance par rapport aux volontés de Stimmann d'imposer l'usage de la pierre polie et la prééminence
lignes horizontales strictement normées. La Stadt, in Die Architektur des neuen Berlin, cit., pp. 114 et suivantes. 34 H. Stimmann, Baustelle Friedrichstrasse, «Bauwelt», 84, 1993, 21, p. 1128. Il avait par ailleurs explicité cette approche deux ans auparavant dans la même revue: Berliner Abkommen, «Bauwelt», 82, 1991, 39, p. 2092. 35 Plans dans Die Architektur des neuen Berlin, cit., p. 126. 482 Denis Bocquet distance est chez Gehry
dans l'ironie d'un respect caricatural des normes, aussi bien sur l'apparence chromatique, les matériaux, les lignes, la proportion des ouvertures, accentuée par l'effet de perversion totale et insolente introduit déjà en façade par les contours galbés, et surtout derrière le seuil par l'expressivité exubérante d'une créativité qui par là dénonce la brimade imposée au-dehors. Quant à l'Akademie der Künste, sa façade de verre, négociée âprement sur la base d'une rhétorique de mise en valeur d'éléments historiques à l'intérieur, est un contrepoint fort aux dogmes stimmanniens36. D'une manière générale, le traitement par Hans Stimmann et ses services de l'axe d'Unter den Linden, hérité de Schinkel et porteur de la symbolique politique et culturelle de la capitale bismarkienne est allé dans le sens d'une inscription douce dans le cadre néo-historique37. C'est d'un certain côté le triomphe du néonéo-classique38, et d'un autre l'invention d'un langage seyant tout aussi bien à la volonté de refaire de Berlin une capitale historicisée tout en évitant soigneusement les lourds accents urbains hérités du militarisme puis des dictatures39 et à la tendance issue de l'IBA à remplir des vides de la ville bombardée à l'échelle de ce qui existait avant guerre. Cette logique trouve sa limite au bout de l'axe historique d'Unter den Linden, dans les polémiques entourant la démolition du Palast der Republik et son remplacement par un bâtiment hybride inspiré, dans un façadisme de copié-collé, du modèle du Schloss des Hohenzollern dont les ruines bombardées avaient été détruites au début des années 195040. La grande réussite de Stimmann est d'avoir inventé le langage d'un historicisme consensuel pour la capitale fédérale, son échec est peut-être d'en avoir bridé le dépassement. La négociation avec le gouvernement fédéral de la forme du nouveau quartier du gouvernement a été une des autres tâches essentielles de l'urbaniste. Il l'a résumée a posteriori de la manière suivante: «donner un visage à l'Etat»41. Entre l'automne 1990 et 1992, des group de travail ont, au milieu des pressions politiques, réuni représentants de l'Etat fédéral et du Sénat de Berlin. Un concours, dont le jury est présidé par l'architecte hambourgeois Gerhart Laage, est lancé en Die Architektur des neuen Berlin, cit., p. 127. Sur ce point: P. Stangl, Restoring Berlin's Unter den Linden: Ideology, World View, Place and Space, «Journal of Historical Geography», 32, 2005, 2, pp. 352-376. 38 C'est aussi pour certains, dont Thibaut de Ruyter, une forme de post-post modernisme. 39 Sur ce point:
M.
Wise
, Capital Dilemma: Germany's Search for a New Architecture of Democracy
,
New
York
,
Princeton A
rchitectural Press, 1998. 40 Pour une analyse du rapport à l'histoire des interventions
de Stimmann
: R. Curti, Rekonstruktionen und retrospektive Neubauten zwischen Brandenburgertor und Palast der Republik, «Kunsttexte.de», 3, 2006, 1, <http://edoc.hu-berlin.de/kunsttexte/download/denk/curti.pdf>. 1992 C'est le projet, pour le Spreebogen, d'Axel Schultes et Charlotte Frank qui est primé. Quant au Reichstag, il voit le projet de Foster se réduire phase après phase à des versions de plus en plus sages. Si le pari de fonder une architecture du pouvoir qui soit aussi le reflet d'une démocratie refondée est incontestablement réussi, de même que l'aménagement paysager des rives de la Spree, plus difficile est le lien entre ce quartier du gouvernement et la ville. L'isolement de la nouvelle gare centrale, à la marge de ce quartier, ajoute encore à cette sensation. Le cas de la Potsdamerplatz relève aussi peut-être de la même difficulté de Stimmann à faire de la ville là où la situation qui lui est la plus chère, c'est-àdire la recréation d'une trame néo-ancienne, n'est pas possible. A Postdamerplatz en effet, les dés étaient jetés avant son arrivée, et son travail a d'abord été celui de faire coïncider parcelles, investisseurs et concours. Walter Momper, en juillet 1989, soit quelques mois avant la chute du mur, avait ainsi déjà conclu un accord avec le groupe Daimler pour le lotissement d'un important terrain sur la Potsdamerplatz42. L'accord débouche ensuite sur la vente du terrain. On est au début de l'ère Stimmann. L'urbaniste, ayant à peine pris son poste, devra faire avec cette décision. Sony sera l'autre investisseur majeur, la Deutsche Bahn venant ensuite. Le concours et ses péripéties constituent le moment de la rupture entre Stimmann et le monde de l'architecture, qui refuse largement le tournant que l'urbaniste est en train de faire prendre à Berlin. En témoigne la violente po ique avec un personnage de premier plan international comme Rem Koolhaas, qui quitte avec fracas le jury du concours. Stimman sera aussi la cible des critiques acerbes de Daniel Libeskind43. Renzo Piano est choisi pour le dessin général du quartier Daimler. Hans Kollhoff construit l'immeuble emblématique de la place dans l'angle saillant, et sur la parcelle Sony, Helmut Jahn construit le Sony Center. La bataille de la Potsdamerplatz marque assurément le moment, et constitue le symbole, de la rupture entre Stimmann et le parti international de l'audace architecturale, ainsi que le vaste courant d'opinion professionnelle qui s'y rattache44. A une époque où, en Europe, s'amorce une sorte de compétition dans ce sens, et où la re-dynamisation des centres-villes passe par un dialogue renouvelé entre hérité et moderne, Berlin, sous la conduite de Stimmann, choisit résolument une voie plus sage et conservatrice. Dans les processus décisionnels, tout ne se résume cependant pas aux choix de l'urbaniste, qui doit composer avec les instructions et attentes de sa tutelle politique, et surtout des investisseurs (dont Sur ce point: B. Flierl, Berlino dagli anni Ottanta alla riunificazione, cit. Sur ce point: W. Neil, Urban Planning and Cultural Identity, London, Routledge, 2004. 44 Voir, par
exemple: S. Schmaling, Masked Nostalgia, Chic
Re
gression
:
The
'Critical Reconstruction'
of
Berlin, «
Harvard Design Magazine
», 23,
2005/2006
, pp.
1-6
. 42 43 484 Denis Bocquet on se rend compte rapidement qu'ils ne sont pas nombreux et sont à ménager) et propriétaires. Mais, au-delà des considérations essentiellement esthétiques, ce qui marque l'action de Stimmann autour du projet Potsdamerplatz, c'est assurément l'incapacité à faciliter la couture urbaine, d'une part entre les deux lots principaux de l'opération, et surtout avec la zone héritée de Scharoun autour de la Philarmonie, du Kulturforum et de la Staatsbibliothek. Si, pour Howard Watson, la Postdamer Platz est devenue le coeur vide de la ville45, on peut dire aussi qu'elle n'est au fond qu'une agressive intersection routière, et que le seul espace public est à l'intérieur des parcelles privées46. Malgré les théories énoncées sur la ville européenne47, Hans Stimmann ne s'est pas révélé être un concepteur de places à l'européenne. On est loin de l'esprit d'une IBA, née partiellement dans la contestation des interventions viaires trauma pour le sens de l'urbanité. En 1996, à la suite du revers électoral du SPD et à la constitution d'une coalition élargie à la CDU, Hans Stimmann perd son poste de Senatsbaudirektor, au profit de Mme Jakubeit. Son parti lui procure un repli sur le poste de Senatssekretär, qu'il occupe jusqu'en 1999 et la nouvelle donne électorale, qui, débouchant sur une coalition SPD-ex-communistes, lui permet de recouvrer son poste initial. En 1996, son parrain politique Wolfgang Nagel se retire quant à lui de la vie publique, au profit, au poste de sénateur, de Peter Strieder, et rejoint un grand groupe immobilier, ce qui ne manque pas de susciter un certain émoi48. Le retour de Stimmann en 1999 à son poste de Baudirektor, alors que Strieder conserve son siège dans la nouvelle coalition, suscite de nouveaux rebondissements dans les débats berlinois, autour notamment du Planwerk Innenstadt49. De même qu'il H. Watson, Berlin's Empty Heart, «Architectural Design», 76, 2006, 3, pp. 100-103
. Voir
aussi
: P. Marcuse, Reflections on Berlin: the Meaning of Construction and the Construction of Meaning, «International Journal of Urban and Regional Research», 22, 1998, 2, pp. 331-338. 46 Pour une réflexion sur l'espace public à Potsdamerplatz: C.O. Schmidt, Hard Core Urbanism: Urban Planning at Potsdamer Platz after German Reunification, M.Arch. thesis, Rice University, 1996, <http://hdl.handle.net/1911/14030>; J. Allen, Ambient Power: Berlin's Potsdamer Platz and the Seductive Logic of Public Spaces, «Urban Studies», 43, 2006, 2, pp. 441-455. 47 Sur ce point: V. Molnar, Post-War Berlin: Reclaiming the European City, paper presented at the annual meeting of the American Sociological Association (San Francisco, 2004), <http://www. allacademic.com/meta/p109811_index.html>.
48 Ex-Bausenator Nagel geht in die Immobilienbranche, «Berliner Zeitung», 17 avril 1996. Nagel rejoint le Fundus-Gruppe (Bredero Projekt Gruppe), actif à Berlin avec l'Hotel Adlon sur la Pariserplatz (un des lieux les plus discutés du débat esthétique berlinois) ou le quartier 206 (Friedrichstadtpassagen). 49 Pour une présentation de ce plan et des débats qu'il a suscités, par Stimmann lui-même et selon la perspective par lui défendue: H. Stimmann (Hg.), Von der Architektur zur Stadtdebatte. Die Diskussion um das Planwerk Innenstadt, Berlin, Braun, 2001. Voir aussi, pour une défense de son oeuvre face aux critiques: H. Stimmann, Zur Zukunft des Städtischen nach dem Scheitern der 45 HANS
STIMMANN ET L'URBAN
BERLINOIS
avait tenu dès son arrivée en poste à retrouver la trace de la ville effacée, par une recherche dans les plans anciens, antérieurs aussi bien aux bombardements qu'aux violences morphologiques de l'époque d'Albert Speer pendant la dictature totalitaire nationale-socialiste puis à celles des modernistes et infrastructuralistes, Stimmann, dans cette seconde période, entend systématiser sa méthode de résurgence de la trame ancienne, et l'étendre à des quartiers de moins en moins centraux. C'est encore aussi l'extension du travail d'équipes d'urbanistes de l'Ouest, avec notamment Dieter Hoffmann-Axthelm, vers l'Est50. A la fin de l'année 2006, Hans Stimmann prend sa retraite51. Le Sénat de Berlin, pour lui succéder, fait appel à l'urbaniste suisse Regula Luscher. Ce choix répond, au moins partiellement, au souhait, ou peut-être à la nécessité, de ne pas trancher dans les luttes de clan en cours à Berlin dans la perspective du départ de l'urbaniste. Au moment où la génération IBA s'efface, il convient de ne pas rouvrir les luttes entre passionnés de l'avenir de Berlin. Pourtant, les enjeux sont de taille: outre la gestion pratique, esthétique, rhétorique et symbolique de l'héritage de l'ère Stimmann, se présente à la nouvelle responsable la tâche de penser le futur de deux aires importantes en bordure du centre de la ville. La requalification urbaine des deux zones aéroportuaires de Tempelhof et de Tegel sera en effet l'enjeu des prochaines années. Alors que se dessine l'idée d'une nouvelle IBA52, c'est là que se jouera la capacité de Berlin à recouvrer sa place de modèle dans l'urbanisme européen. Il est bien sur hors de propos de juger ici de l'action d'Hans Stimmann dans son ensemble, et l'analyse de chaque phase ou décision doit être rapportée à son contexte propre. Il faut également se garder de faire de ce personnage un protagoniste universel de toutes les transformations de la ville. S'il a occupé des fonctions importantes, il n'en a pas moins été constamment pris dans un ensemble de processus qui le dépassait largement, et son action était aussi celle d'un système bureaucratique et technique complexe, non univoque et loin de posséModerne,
«Bibliothek des Eigentums
», 3, 2006, 4, pp. 583-591. 50 Pour Simone Hain, le Planwerk Innenstadt a été une véritable déclaration de guerre contre la culture urbaine de l'Est: S. Hain, Erster Kommentar zum Planwerk, in Planwerk Innenstadt I. Dokumentation, 60. Sitzung des Stadtforums
am 29. November 1996, Berlin 1996, pp. 43-50; voir aussi Id., Der Berliner Städtebaudiskurs als symbolisches Handeln und Ausdruck hegemonialer Interessen, «WeltTrends: Zeitschrift für internationale Politik und vergleichende Studien», 17, 1997, pp. 103-123. Pour une perspective sur les travaux entrepris: C. Dörries-U. Keil-H. Stimmann, Vom Plan zum Bauwerk, Berlin, Braun, 2002. 51 D. Bocquet, Hans Stimmann è andato in pensione, «Il Giornale dell'Architettura», VI, 2007, 47, p. 28. 52 Pour une discussion sur cette perspective, voir: H. Bodenschatz-H. Machleidt, Radikal Radial, «Der Tagesspiegel», 7 novembre 2010, p. 12. 486 Denis Bocquet der une rationalité réductible forcément à une vision globale. Tout juste peuton tenter un bilan, à plusieurs niveaux. Si le but implicite de son action, dans son contexte institutionnel et politique, était pour un personnage comme Hans Stimmann d'accompagner le tournant post-alternatif de l'urbanisme Ouest-berlinois en direction d'une gentrification douce, tout en étendant cette politique aux quartiers Est, et d'inventer un langage urbain qui sache manier la rhétorique de l'historicisation sans affronter les lourds passifs berlinois du lien entre forme urbaine dans la ville capitale et nation, alors il a réussi et su léguer à la ville un cadre apaisé. Mais s'il s'agissait, sur la base de la contestation de l'héritage et des dogmes du modernisme, à la faveur d'un grand tournant institutionnel, symbolique, politique et urbain, de faire entrer la reconstruction critique dans une phase opérationnelle et théorique qui sache dépasser le stade du conservatisme esthétique, alors Stimmann a plutôt incarné la voie d'un figement que d'une véritable éclosion. Dans le contexte certes d'une administration berlinoise extrêmement endettée et d'une économie peinant à trouver investisseurs et nouveaux vecteurs de prospérité, le travail de Stimmann n'était pas aisé. Mais il a peut-être, à trop vouloir assurer un apaisement symbolique, contribué à faire perdre à la ville son statut de modèle continental d'urbanisme. Quant à la référence historiciste, elle a trop oublié que Berlin avait, aussi, été une capitale de l'avant-garde. La piteuse affectation du terrain jouxtant la gare de Friedrichstrasse, que les architectes du monde entier connaissent pour le schéma de Mies van der Rohe, est le symbole de cette ambition abandonnée. Marginal au sein de l'IBA, absent au moment du tournant de 1990, une partie des choix qui ont changé Berlin avaient en fait déjà été faits lorsque son a convié Hans Stimmann à rejoindre la ville en pleine transformation. S'il a été conformiste, c'est assurément dans son effort de répondre à l'horizon d'attente investi en lui par ceux qui lui faisaient confiance. Il a été une sorte de médiateur culturel entre l'aile du SPD qui a dominé la scène berlinoise tout au long de ces années de profonde mutation et le monde des architectes et urbanistes issus de l'IBA. Il a été, aussi, porteur et acteur de la longue emprise de l'Ouest sur l'Est, ainsi qu'un relai de pouvoir, et parfois un bouc émissaire. Quant au combat du néo-historicisme conservateur contre l'avant-garde, Stimmann en a été un arbitre partial. A Berlin, contrairement à d'autres villes, comme le souligne George J.A.
| 36,625
|
tel-04502431-2023TOU30211a.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Apport de la synergie entre Sentinel-1, Alos-2 et Sentinel-2 à l'estimation de l'humidité de surface des sols en zones semi-arides. Hydrologie. Université Paul Sabatier - Toulouse III; Institut national agronomique de Tunisie, 2023. Français. ⟨NNT : 2023TOU30211⟩. ⟨tel-04502431⟩
|
None
|
French
|
Spoken
| 7,323
| 12,854
|
En revanche, l’inter-comparaison de (Zribi et al., 1997) des modèles IEM et Oh (la version de 1994) a révélé que le modèle Oh-1994 est plus adéquat pour les sols rugueux à des angles d’incidence moyens en raison de sa tendance à sous-estimer les coefficients de rétrodiffusion des sols lisses. Cette sous-estimation, dans le contexte des sols lisses (Hrms < 1cm) et un angle d’incidence de l’ordre de 20°, est soulignée par (Baghdadi & Zribi, 2006) en utilisant les deux versions Oh-1992 et Oh-2002 avec des données en bande C. En contrepartie, les simulations en utilisant IEM a signalé la surestimation des coefficients de rétrodiffusion en HH surtout à des valeurs d’humidité qui dépassent 30 vol.%. Pour élargir les domaines de validité des modèles, d’autres versions des sont proposés pour minimiser les biais de simulation. L’estimation des coefficients de rétrodiffusion en bande C en utilisant IEM-B et Dubois-B a mis en relief une amélioration relative des performances des simulations. Les valeurs RMSE sont inférieures à 1.45 dB et 2.97 dB en polarisation VV en VH, respectivement (Mirsoleimani et al., 2019).
I.2.5.2. Sol couvert
La végétation constitue un système complexe en évolution continue dans le temps et dans l’espace. Son évolution obéit à un cycle de développement au cours duquel la densité, la structure, la hauteur et le contenu en eau sont variables d’une phase à une autre. Les mesures des propriétés diélectriques faites par (El-Rayes & Ulaby, 1987) ont mis l’accent sur la variabilité de la distribution du contenu en eau dans les différentes composantes de plusieurs variétés de végétation (tronc, tiges et feuilles) en yant les conclusions d’(Ulaby, 1975). Cette dynamique spatiotemporelle complique l’estimation des coefficients de rétrodiffusion de la végétation qui sont sensibles aux propriétés diélectriques et la configuration géométrique des diffuseurs constituant le volume comme les feuilles, les tiges et les fruits (Chanzy, 1993 ; Dabrowska-Zielinska et al., 2007 ; Karam et al., 1988 ; Steele-Dunne et al., 2017 ; Ulaby & ElRayes, 1987). Ulaby et al., (1990) ont proposé le modèle MIchigan MIcrowave Canopy Scattering (MIMICS) pour calculer les coefficients de rétrodiffusion des arbres de forêt. Comme étant un système de deux couches, la contribution de chaque couche est calculée séparément en fonction de ses constituants qui peuvent être périodique (Whitt & Ulaby, 1994). Dans un contexte agricole, (Tour et al., 1994) a adapté MIMICS pour estimer le coefficient de rétrodiffusion du blé et du colza en utilisant des données bi-fréquence en bandes C et L. Le modèle MIMICS a été généralisé avec les travaux de (Karam et al., 1988) pour inclure N couches et il a porté le nom du modèle Karam. Les modèles MIMICS et Karam se basent sur des notions théoriques physiques assez complexe pour l’inverser ultérieurement pour estimer les humidités de sol. Dans ce cas, d’autres modèles semi-empiriques plus simples étaient privilégié comme le Water Cloud Model (WCM). Ce modèle est sollicité dans la littérature grâce à sa facilité d’application (Graham & Harris, 2003). Il est fondé par (Attema & Ulaby, 1978), le modèle considère la végétation comme un ensemble de gouttelettes d'eau identiques et sphériques, caractérisées par leur densité et sa hauteur de la canopée. La rétrodiffusion totale σ du sol σ est la somme de la contribution de la végétation σ, atténué par la végétation (un coefficient de transmissivité dans deux sens τ ) et des interactions sol-végétation
σ σ = σ : + τ × σ + σ (19) 37
La contribution du sol nu σ est calculée en utilisant l’un des modèles déjà cités (voir section I.2.5.1.). Le terme des interactions sol-végétation est souvent négligé surtout avec les données en polarisation parallèle (Dobson & Ulaby, 1986 ; Ulaby et al., 1986)
= A V1 cos θ (1 − τ ) (20) τ = exp(−2 B V2 sec θ ) (21) σ
Avec θ est l’angle d’incidence, A et B sont deux paramètres à calibrer et à valider en fonction de la configuration du capteur radar et de type de végétation, V1 et V2 sont les descripteurs du couvert végétale (V1 = V2). Le choix du descripteur le plus représentatif et fidèle à la dynamique de végétation est toujours abordé dans la littérature. Dans ce cas, nous pouvons parler de trois classes de descripteurs : des variables biophysiques in-situ, des variables extraites des images satellites ou bien des variable biophysiques estimées à partir des images satellites. Les variables in-situ peuvent être l’indice foliaire, la biomasse, le contenu en eau de la végétation (Zribi et al., 2011, Chauhan et al., 2018 ; El Hajj et al., 2016 ; Haldar et al., 2022). En utilisant les données satellites, les descripteurs sont des indices calculés à partir des optiques tels que NDVI (Baghdadi et al., 2017 ; Bousbih et al., 2017, 2018 ; Prakash et al., 2012) ou EVI (Wang et al., 2019), ou à partir des données radar comme les paramètres de pureté en polarisation parallèle (Bhogapurapu et al., 2022). D’autres auteurs ont établi des relations empiriques entre les données satellites et les variables biophysiques in-situ pour estimer les descripteurs (Liu & Shi, 2016 ; Ma et al., 2020 ; Ouaadi et al., 2021 ; Periasamy, 2018 ; S. Wang et al., 2021). Afin d’améliorer la performance du WCM, la communauté scientifique a dédié des efforts considérables pour introduire des modifications à la version simplifiée du WCM sous des hypothèses bien déterminées. (Zhang et al., 2020) ont proposé une nouvelle version du WCM tout en pondérant la contribution de la végétation par la fraction de couvert végétal et la contribution du sol nu par (1-fraction du couvert). Cette proposition repose sur l'hypothèse que les pixels ne sont pas couverts par la végétation de manière variable tout au long de son cycle de croissance et de développement. A partir de l’indice spectral NDVI calculé à partir des images optiques, (He et al., 2014) ont calculé la fraction du couvert pour séparer la contribution du sol nu et de la végétation dispersée. Cette approche résulte des RMSE inférieures à 3.4 vol.% en comparant les mesures in-situ d’humidités et les valeurs estimée. La modification du WCM apportée par Bao et al., 2018 en se basant sur l’approximation de Taylor est validé avec des valeurs RMSE approximativement de 5.3 vol.%. I.2.6. Méthodes d’inversion des modèles
L’objectif principale de la simulation du comportement du signal radar vise la validation d’un modèle qu’on puisse l’inverser ultérieurement pour estimer l’humidité du sol dans notre cas. L’étape d’inversion requiert l’utilisation des approches fiables pour minimiser les biais et les incertitudes d’estimation. Les méthodes d’inversion empiriques directes sont les plus simples à partir sur des expressions mathématiques simples (Baghdadi et al., 2017), soit en utilisant une approche de détection de changement (Gao et al., 2017 ; Nativel et al., 2022 ; Tomer et al., 2016). Notamment, il existe des approches qui sont basées sur le Look-up tables (Rabus et al., 2010 ; Rahman et al., 2007) ou bien des algorithmes de Machine Learning tels que le réseau de neurones (Bousbih et al., 2018 ; El Hajj et al., 2016 ; Nativel et al., 2022 ; Paloscia et al., 2008) ou bien les algorithmes de régression (Ezzahar et al., 2020). Les approches probabilistes peuvent être utilisés aussi tels que Bayesian Framework et la chain Marckov Monte Carlo (Ma et al., 2017). De point de vue méthodologique, toutes ces approches de modélisation et d’inversion sont développées et optimisées pour estimer l’humidité du sol à une échelle fine à une haute répétitivité temporelle avec le minimum du biais. Sur le plan thématique, quel est l’apport de cette information sur l’état hydrique en surface estimée?
I.3. Apport de l’état hydrique estimé par télédétection dans la compréhension des processus naturels
L’état hydrique des surfaces constitue un élément majeur dans un système complexes des trois cycles (hydrologique, énergétique et du carbone) qui gouverne les dynamiques des êtres vivants sur terre. Akbar et al., (2020) ont utilisé l’historique des produits d’humidité de surface depuis 1979 jusqu’à 2019 pour quantifier la répartition des précipitations sous forme des flux d’évapotranspiration, de surface et du drainage. L’utilisation des produits des humidités de surface est bien étendue pour englober l’identification des transitions des régimes d’évapotranspiration (Dong et al., 2022 ; Feldman et al., 2019 ; Short Gianotti et al., 2020). Cette identification des régimes est conditionnée par une valeur limite d’humidité du sol. Le seuil d'humidité de transition entre un régime d'évaporation limitée par l'eau ou par l'énergie est déterminé en utilisant une série d'humidités du sol associées aux données d'amplitude de température diurne en Afrique (Feldman et al., 2019). 39 Les données d’humidité surfacique du sol ont été explorées dans d’autres travaux portant sur le fonctionnement et le stress de la végétation (Feldman, Akbar, et al., 2018 ; Feldman, Short Gianotti, et al., 2018 ; Lemordant et al., 2018 ; Mankin et al., 2019) surtout que les résultats des traceurs isotopiques indiquent que certaines esp èces de végétation préfèrent l’absorption de l’eau des premiers centimètres du sol (Feldman et al., 2023). Hayat et al., (2019) ont souligné l’influence des scénarii de séchage et de mouillage de la surface du sol sur la dynamique de l’eau dans le xylème de la feuille de la végétation. Lorsque la surface du sol est sévèrement sèche, la conductance sol-végétation a diminué par 1.65 fois par rapport à l’état humide uniforme. Cette dynamique de l’humidité du sol résulte d’un déficit d’humidité du sol suite à une sécheresse. En se basant sur cette définition, il est possible d'identifier les zones touchées par les risques de sécheresse et de prévoir les zones menacées par la sécheresse hydrologique et agronomique (Cook et al., 2020 ; Dai et al., 2018). L’humidité du sol est une variable spatiotemporelle de forçage et de calibration des modèles de surface tels que le modèle d’Interaction Soil-Biosphere-Atmosphere ISBA qui simule l’ensemble des flux d’eau avec l’atmosphère et le sol (Decharme & Douville, 2006), le modèle « Two-Source Energy Budget » TSEB, le modèle « Town Energy Balance » TEB dans le milieu urbain. D’ailleurs, l’intégration des données d’humidité de surface à l’échelle de la parcelle a amélioré le potentiel des modèles à simuler l’évapotranspiration. L’apport de l’état hydrique dans les modèles de surface a été révélé avec les travaux de (Hssaine et al., 2018). Ils ont établi un nouveau modèle nommé TSEB-SM dont le but principal est de simuler l’évapotranspiration dans deux parcelles de blé irrigué. La valeur ajoutée de ce modèle consiste à calculer l’évaporation du sol en fonction de la résistance du sol. Cette dernière est estimée à partir des humidités du sol mesurées localement à l’aide des TDR installés sur site. En comparant les simulations de TSEB et TSEB-SM avec les données mesurées par Eddy Covariance, les simulations de l’évapotranspiration par TSEB-SM se caractérisent par une erreur relative inférieure de 14% par rapport à l’erreur relative des simulations du TSEB. Pour éviter la dépendance des travaux aux mesures in-situ et couvrir la variabilité spatiotemporelle de l’ETP, les mesures localisées ont été remplacées par des produits d’humidité tels que les produits SMOS désagrégés de 1 Km (Ait Hssaine et al., 2020) et les produits d’humidité de sol issus seulement des données Sentinel-1 établies par(Ouaadi et al., 2020), de la synergie entre Sentinel-1 et Sentinel-2 établies par (El Hajj et al., 2017) et des produits SMAP désagrégées par les données MODIS et Landsat établies par (Ojha et al., 2019) 40 (Hssaine et al., 2021). Grâce à ces produits, l’approche TSEB-SM a été spatialisée pour estimer l’ETP à l’échelle d’un périmètre irrigué. Dans le secteur agricole irrigué, l’introduction des produits d’humidité du sol, tels que les produits AMSR-E, AMSR2 SMOS et ASCAT, a diminué le biais des examens de l’impact de l’irrigation sur les ressources en eau à une large échelle (Kumar et al., 2015). Cette utilité a été soulignée dans les travaux de (Lawston et al., 2017 ; Nie et al., 2022). Nie et al., (2022) ont confirmé que l’utilisation des produits d’humidité du sol désagrégés SMAP 1 et MODIS-LAI, a réduit la sensibilité du modèle à la caractérisation spatiale de la dynamique de l’irrigation avec un taux de 7 à 43%. En exploitant les données à résolution grossière, Brocca et al., (2018) ont pu identifier les zones irriguées et la quantification des doses d’irrigation dans trois contextes climatiques (semi-aride, semi-humide et humide). Bien que les produits désagrégés soient utilisés dans l’agriculture conduite en irrigué (Dari et al., 2020 ; Paolini et al., 2022 ; K. Zhang et al., 2022), la résolution grossière ne couvre pas l’hétérogénéité spatiotemporelle de l’irrigation à une échelle parcellaire. Dans le but d’optimiser la gestion des ressources en eau, l’information sur l’irrigation au niveau de la parcelle est exigée pour aller à une échelle régionale. Dans cette optique et avec l’arrivée des données Sentinel-1, plusieurs efforts ont été investis pour inclure les produits d’humidité du sol à résolution fine dans la modélisation de l’irrigation. En se basant sur la synergie optique (Sentinel-2) / radar (Sentinel-1) et l’inversion du WCM, le travail de (Bousbih et al., 2018) a proposé une approche pour estimer les humidités du sol et générer ultérieurement une carte d’humidité du sol à une profondeur de 5cm de la plaine de Kairouan située dans le centre de la Tunisie dont le climat est semi-aride à aride. A partir de cette carte, une classification des zones irriguées et non irriguées est déduite. Dans le même contexte méthodique, la synergie optique/radar a constitué un pilier pour les produits opérationnels d’humidité de sol d’(El Hajj et al., 2017). Ces produits aussi ont été testé dans les travaux de (Bazzi et al., 2022) pour détecter les évènements d’irrigation à chaque date d’acquisition de Sentinel-1 à une échelle parcellaire. Cette approche est validée sur trois sites (deux sites en France et un site en Espagne). L’utilisation de ces produits a permis la détection des événements d’irrigation à une échelle parcellaire en France (Le Page et al., 2020) et en A cette même échelle parcellaire des produits et dans un contexte du semi-aride, le travail de (Ouaadi, et al., 2021) consiste à examiner le potentiel des mesures d’humidité assimilées et des produits d’humidité de surface établies dans (Ouaadi et al., 2020) pour détecter et estimer les doses d’irrigation avec l’approche du FAO 56. L’approche est développée en se basant sur les produits issus seulement des données radar, n’a raté que 30% des événements d’irrigation localisée gouttes à gouttes. Selon les métriques statistiques, l’utilisation des produits (Ouaadi et al., 2020) a révélé son potentiel à quantifier les doses d’irrigation avec un RMSE 28.7 mm par rapport une valeur de 27.1 mm caractérisant les estimations établies à partir des données insitu (Ouaadi, et al., 2021).
I.4. Conclusions
Dans ce chapitre, nous avons présenté un récapitulatif de l’importance des états de surface dans la modélisation et la simulation des processus naturelles plus particulièrement l’état hydrique. Ce dernier constitue une variable gouvernante des trois cycles hydrologique, énergétique et du carbone. La communauté scientifique a investi beaucoup d’efforts pour quantifier cet élément clé par des mesures directes dans le sol ou en utilisant des outils à distance comme la télédétection. Depuis des décennies, la télédétection a prouvé sa pertinence pour estimer le contenu en eau de surface dans ses différents domaines de longueur d’onde. Le domaine des micro-ondes est souvent élu comme étant un outil adéquat pour estimer l’humidité du sol suite à la sensibilité des signaux électromagnétiques aux propriétés diélectriques du sol. Dans le domaine passif, la résolution spatiale grossière des produits d’humidité est insuffisante pour couvrir la variabilité spatiotemporelle de l’humidité. Par conséquent, le recours au domaine actif qui fournit des acquisitions par la technique SAR à une résolution spatiale plus fine, est une alternative judicieuse. Dans ce contexte, la deuxième partie de ce chapitre présente des généralités sur la technique des mesure radar et les différentes approches adoptés pour estimer les humidités du sol à partir des données SAR. Ces approches se basent sur la modélisation et l’inversion du comportement du signal radar face aux surfaces des sols. Dans ce cas, nous pouvons utiliser soit des modèles physiques ou bien des modèles semi-empiriques plus simples comme le WCM. Ce modèle requiert une calibration des paramètres qui sont dépendants à la configuration du capteur radar et du type de la végétation. De plus, la végétation est décrite dans ce modèle par des descripteurs qui sont des variables biophysiques in-situ ou bien des variables extraites des images satellites ou bien des variables biophysiques estimées à partir des images acquises selon des relation empiriques établies. Par la suite, l’estimation des humidités du sol fait l’objet de plusieurs 42 applications hydrologiques, climatiques et agronomiques. L’apport de cette information de l’état hydrique du sol à une échelle parcellaire est examiné dans la troisième partie de ce chapitre. A partir de ces conclusions, les travaux de la présente thèse vont contribuer dans plusieurs volets. Le premier volet détaille une comparaison du potentiel des données radar en deux fréquences (bandes L et C) pour estimer les humidités du sol pour deux types de culture (les céréales et les piments). Le deuxième volet concerne l’impact du choix des descripteurs de végétation dans le processus d’estimation d’humidité du sol. Finalement, le troisième volet présente l’apport d’une série temporelle des humidités du sol dans l’évolution climatique d’une région. Chaque volet est concrétisé dans un chapitre tout au long du manuscrit. Chapitre II Description de la zone d’étude et de la base des données 44 Chapitre II Description de la zone d’étude et de la base des données
Dans ce chapitre, nous détaillons, dans la première section la situation géographique, géologique, climatique, hydrologique, édaphique et agronomique de la zone d’étude : la plaine de Kairouan. Ensuite, dans la deuxième section, nous décrivons la base de données acquises dans le site d’étude composée des mesures in-situ (humidité et rugosité du sol et variables biophysiques de végétation) et des images satellites acquises par ALOS-2, Sentinel1 et Sentinel-2.
II.1. Description du site d’étude : La plaine de Kairouan II.1.1. Situation géographique
La plaine alluviale de Kairouan (9°23’-10°17’E, 35°1’- 35°55’N) couvre une superficie de 3000 Km2, disposant du plus important réservoir en eau de la Tunisie centrale. Elle se trouve dans la partie Sud-Est du gouvernorat de Kairouan en s’étalant sur 40 Km dans la direction Est-Ouest et 100 Km dans la direction Nord-Sud (Figure 17).
Figure 17. Localisation de la plaine de Kairouan dans le gouvernorat de Kairouan. 45
La plaine de Kairouan occupe la mi-partie sud du bassin Djebibia-El Alem-Kairouan-Nasrallah. Elle est entourée par une série de djebels « montagnes » de l’Ouest notamment Baten, Cherichira, EL Haouareb, Draa Affane et Djebel Cherahil. A l’Est, les collines du Sahel sous forme des dépressions topographiques remplis par des eaux salées (les sebkhas) délimitent la plaine nominativement El Kalbia, El Hani et Cherita (Figure 17). II.1.2. Contexte géologique
La plaine de Kairouan, à une élévation de 200 m, est caractérisée par une structure géologique complexe et une variabilité lithologique (Ghali, 1993, Nazoumou & Besbes, 2000). Il s’agit d’un bassin d’effondrement dont le seuil est marqué par un dénivelé brutal de 15 m situé au niveau d’un accident tectonique au niveau du barrage El Haouareb (Alazard, 2013). Ce bassin est rempli des sédiments détritiques d’âge Plio-Quaternaire à une épaisseur d’environ 700 m. Cet âge est composé du sable et du silt alternativement avec des couches encroûtées et lenticulaires de sables grossiers et d’argiles (Ammar et al., 2006). Le bassin sédimentaire est entouré par des formations Mio-Pliocène constituées de sables, de silts, d’argiles, de marnes et des conglomérats érodés datant des ères secondaire et tertiaire situés dans les anticlinaux de Draa Affene, Djebel Cherichira et Djebel Baten.
II.1.3. Contexte Climatique
La plaine de Kairouan se caractérise par un climat qui varie entre le semi-aride et l’aride. Elle est dans une zone de transition entre deux zones à climat tempéré- méditerranéen caractérisant les zones du Tell au Nord de la Tunisie et aride désertique dans le Sud de la Tunisie.
II.1.3.1. Pluviométrie
Le régime des précipitations de la plaine de Kairouan se distingue par une saison des pluies du mois de septembre jusqu’au mois de Mai et une saison estivale dont la pluviométrie est quasi nulle. En moyenne, la zone reçoit annuellement environ 300mm. La pluie annuelle d’El Haouareb estimée est de l’ordre de 237 mm (Lacombe et al., 2008). La Figure 18 illustre les moyennes annuelles des précipitations dans
Figure 18. Répartition des précipitations annuelles de la station de Kairouan synoptique entre 1986 et 2022. Ces moyennes sont variables d’une année à une autre marquant les années humides et les années relativement sèches. Sur toute la chronique (1986- 2022), l’année 1989/1990 est la plus humide distinguée par des précipitations de l’ordre de 576.6mm. Des quantités similaires, à l’environ de 559.5mm, sont observées durant l’année 1995/1996. En contrepartie, pendant les années 1987/1988, 2000/2001, 2012/2013 et 2021/2022, la plaine de Kairouan n’a reçu que des quantités inférieures à 177mm. Ces années constituent les périodes les plus sèches de la chronique. La Figure 19 représente la moyenne des précipitations entre 1986 et 2022. La comparaison inter mensuelle des moyennes des précipitations souligne une irrégularité des pluies d’un mois à un autre. Il s’agit des moyennes élevées enregistrées par excellence en Septembre (≈ 46 mm) et en Mars (≈ 45 mm). 47
Figure 19. Répartition des précipitations moyennes mensuelles de la station de Kairouan synoptique durant la période entre 1986 et 2022.
II.1.3.2. Température, Vents et Evaporation
La Figure 20 illustre l’évolution des températures moyennes mensuelles durant la période entre 1986 et 2022. La température varie entre 11°C dans les mois les plus froids (Décembre, Janvier et Février) et peut atteindre en moyenne 30°C durant les mois les plus chauds en Juillet et Août (Bouzaiane et Lafforgue, 1986). Les températures maximales peuvent atteindre des valeurs proches de 37.5 °C.
Figure 20. Répartition des températures moyennes, minimales et maximales mensuelles de la station de Kairouan synoptique durant la période entre 1986 et 2022. 48 D’après Bouzaiane et Lafforgue, 1986, la plaine est dominée par des vents saisonniers de direction Nord-Nord-Ouest pendant l’hiver sous forme d’un vent froid Jebbali arrivant de l’Algérie. Pendant l’été, la plaine est bien ventée dans une direction Sud-Sud Est avec des orages du Nord-Est avec la présence du sirocco qui contribue au dessèchement des sols (Bouzaiane et Lafforgue, 1986). Les températures élevées et les vents favorisent l’évaporation. Pour quantifier cette variable climatique, plusieurs approches ont été évaluées dans Alazard et al., 2015. Dans le lac d’El Haouareb, l’évaporation varie annuellement entre 1400 et 1900 mm. En combinant les résultats des différents approches utilisés dans (Alazard et al., 2015), la moyenne interannuelle de l’évaporation est d’environ 1700 mm/an avec une incertitude de 15%.
II.1.4. Ressources en sols
La plaine de Kairouan occupe la partie Sud-Est de la dorsale Tunisienne. Elle est caractérisée par des sols isohumiques auprès de l’oued Merguellil près du Djebel de Trozza. Cette cuvette alluviale communique avec la plaine de Nasrallah et la plaine de Sidi Saad à travers oued Zeroud (Figure 21).
Figure 21. Carte de texture des sols de la plaine de Kairouan (extraite de la carte agricole 2000).
49 Les deux oueds Merguellil et Zeroud marquent la plaine par leurs lits et dépôts sédimentaires qui sont de moins en moins présents vers l’exutoire naturel de la plaine : les sebkhas. Par conséquent, la plaine se distingue par des formations pédologiques peu évoluées présentant des différentes textures : des sols halomorphes salins sur la rive droite du Zeroud, des sols à texture argileuse ou argilo-sableuse, a qu’une texture sableuse grossière en aval des deux oueds. Des sols calcimagnésiques se reposent sur les formations calcaires du Crétacée en contact avec des sols minéraux bruts (lithosols/régosols). Les sols isohumiques, peu évolués et calcimagnésiques forment des associations complexes du sol présentes dans les Nord et Sud de la plaine. Cette diversité des sols induit une variabilité spatiale des textures (Figure 21). Pour couvrir la variabilité spatiale de la texture à une échelle plus fine, plusieurs travaux ont développé des approches pour cartographier le teneur en argile de la plaine de Kairouan en utilisant des données satellites et des données in-situ de la texture (Figure 22).
Figure 22. Produits de texture des sols de la plaine de Kairouan réalisée à partir : (a) des données optiques Landsat (Shabou et al., 2015), (b) de la synergie des données optiques-radar (Bousbih et al., 2019) et des donnés radar (c) Zribi et al., 2012 et (d) Gorrab et al., 2015 et à des différentes étendues sur le site d’étude. 50 A partir des données optiques, Shabou et al., 2015 ont généré la carte du contenu en argile de la plaine à une résolution de 100 m avec un RMSE de l’ordre de 10 %. Pour atte
indre
le
même
objectif,
Bous
bih
et al.,
2019
;
Gorrab et al.,
2015 ; Zribi et al
.,
2012ont
utilisés les données SAR
. Dans Zribi et al., 2012, la cartographie des quantités d’argile à une résolution spatiale de 50m, se base sur les données SAR en bande X (TerraSAR-X) avec un RMSE de 12%. En utilisant les mêmes données, Gorrab et al., (2015) ont basé leur approche sur la détection des changements pour produire des cartes d’humidité et par la suite la carte de texture. La prise en compte de la variation temporelle des niveaux d’humidité du sol a induit une diminution du RMSE passant de 12% dans l’étude de Zribi et al., 2012 à 11% dans celle de Gorrab et al., 2015. En partant du même principe, les travaux de Bousbih et al., 2019 ont investi la synergie entre les données optiques et radar (Sentinel-1 en bande C) pour classer la texture du sol en trois classes selon la quantité de l’argile. L’utilisation de la synergie des deux constellations Sentinel 1 et 2 a permis de produire des cartes à une résolution spatiale de 10m. Tous les résultats mentionnés ont convergé vers la même variabilité spatiale de la teneur en argile et l’importance des données satellites optique et radar pour caractériser la texture en surface. Cette hétérogénéité de texture s’associe avec la complexité lithologique pour renforcer la complexité de la distribution des propriétés hydrauliques de la plaine de Kairouan (Jerbi et al., 2018). II.1.5. Contexte hydrologique et hydrogéologique
L’aquifère alluvial du Plio-Quaternaire est alimenté par deux cours d’eau intermittents de flux saisonniers. Ces deux oueds Zeroud et Merguellil drainent deux bassins versants occupant 1330 Km2 et 8600 Km2, respectivement. Dans le but de protéger les villes contre les inondations, deux barrages ont été implémentés sur les deux cours d’eau : barrage Sidi Saad (1978-1981) sur l’oued Zeroud à 20 Km de la plaine de Kairouan et barrage El Haouareb (1986-1989) sur l’oued Merguellil (Chebbi et al., 2008 ; Derwich et al., 2012). Ces constructions ont participé à la modification du régime hydrologique de la plaine. Les eaux de ruissellement parcourent les lits des oueds perchés et percolent en profondeur pour recharger la nappe. Ce réservoir naturel est la zone de confluence de plusieurs aquifères communicantes entre elles. Le barrage d’EL Haouareb est un relais entre les réservoirs aquifères du bassin amont de Merguellil (Bou Hafna, Haffouz-Chérichira et Ain El Baidha) et la plaine de Kairouan. Les cartes piézométriques réalisées par (Kingumbi et al., 2007) ont prouvé la convergence des écoulements des nappes profondes vers le seuil d’El Haouareb. Les écoulements d’Ain El Bidha participent au processus de recharge de la nappe à travers les barres calcaires d’âge Crétacé supérieur du Djebel El Haouareb. En profondeur, d’autres jonctions hydrauliques du PlioQuaternaires relient la plaine de Kairouan au Djebel Cherichira. Selon la topographie, la direction des flux de ruissellement est du Sud-Ouest vers le Nord-Est avec un gradient de transmissivité décroissant de l’Ouest vers l’Est (Nazoumou & Besbes, 2000). Ce gradient est le résultat des écoulements dont la vitesse diminue vers l’Est avec une augmentation du taux d’argile déposé. Par conséquent, les lentilles d’argile s’élargissent et s’interconnectent pour former une couche imperméable séparant la nappe phréatique et la nappe confinée dans le Nord et l’Est de Kairouan (Ammar et al., 2006 ; Nazoumou & Besbes, 2000). Les sebkhas Sidi El Hani et Cherita constituent l’exutoire naturel des eaux de surface et souterraines. L’aquifère est séparée en deux réservoirs séparés par une couche d’argile confinée. Durant les 40 années après 1968, selon la Figure 23 extraite des travaux Massuel & Riaux, 2017, la nappe de la plaine de Kairouan témoigne un rabattement de l’ordre de 30 m suite à une exploitation intensives des eaux souterraines et l’approvisionnement en eau potable (Jerbi et al., 2018 ; Leduc et al., 2007, 2017 ; Massuel & Riaux, 2017). Figure 23. Evolution du niveau d’eau dans l’aquifère de la plaine de Kairouan depuis les inondations de 1969, l’implémentation du barrage El Haouareb en 1989 jusqu’à 2010. Ces courbes sont établies à partir des niveaux piézométriques au niveau de P1 et P2 (sur Merguellil jusqu’à 1989 et le barrage El Haouareb après 1989), P3 et P4 (dans la zone de recharge saisonnière) et P5 et P6 (renseignant sur le niveau de l’aquifère de la plaine de Kairouan) (Massuel & Riaux, 2017). 52 D’ailleurs,
cette surexploitation est mise en relief par une augmentation de cinq fois du nombre des forages de 400 en 1960 à 2000 en 2010 (Jerbi et al., 2018). Le nombre de forages illicites a encore beaucoup plus augmenté depuis le 14 janvier 2011 mais il n’y a pas un inventaire exhaustif à ce jour. Les formations géologiques, pédologiques, climatiques ainsi que le cadre hydrologique et hydrogéologique conditionnent directement le marché agricole et les occupations des sols dans la plaine de Kairouan.
II.1.6. Contexte agricole et occupation du sol
Le marché agricole dans la plaine de Kairouan est étroitement lié aux facteurs naturels ainsi qu’aux forçages anthropiques. Selon les cartes d’occupation du sol dans la plaine depuis 2009 (Shabou, 2010, Amri et al., 2011, Zribi et al., 2011), les occupations de sol principales sont des oliviers, des céréales (en pluvial ou irriguées) ou bien des cultures maraîchères de saison hivernale ou estivale. L’existence des cultures saisonnières associés à des cultures annuelles amène la production des cartes d’occupation des sols à une échelle saisonnière. La Figure 24 illustre l’occupation du sol dans la saison hiver-printemps de l’année 2019/2020. L’ de sol se scinde entre arboriculture (24.3 %), jachère (31.1%), des céréales (12.2 %), des cultures mixtes (7.4 %) et du maraîchage (4.9%). La plupart des producteurs des céréales sont des petits exploitants dans la plaine (62.1 %) dont la superficie de ces parcelles ne dépasse par une dizaine d’hectare (Annuaire agricole, 2018). Ces statistiques soulèvent une autre menace du marché agricole à Kairouan : le morcellement des parcelles qui est accentué par l’héritage et la conversion des statuts fonciers. Ces parcelles, en dehors du cycle des céréales, sont occupées par des cultures maraichères tels que les pastèques, les melons, les fèves, les féveroles, les tomates, les piments... Les cultures maraîchères, à Kairouan, contribuent par 3.49% de la production national agricole tout en procurant 28 % des superficies irriguées. La production des piments est la première consommatrice des eaux d’irrigation par rapport à d’autres cultures maraîchères avec une productivité de 22.9 tonnes / hectare selon les chiffres de l’annuaire agricole de 2018. D’ailleurs, le gouvernorat de Kairouan préoccupe les plus larges superficies irriguées équipées en Tunisie avec un taux de 13.36% (FAO, consulté le 14 juin 2023).
53 Figure 24. Occupation du sol de la plaine de Kairouan, de résolution spatiale de 10 m, produite à partir des données optiques Sentinel-2 et des observations terrain de la campagne hiverprintemps 2019-2020 (Zayani, 2023). Les sources d’irrigation sont principalement des sources souterraines, en surface et minoritairement des eaux traitées. Sur la plaine de Kairouan, il existe un nombre limité d’agriculteurs qui bénéficient des réseaux d’irrigation publiques sous la tutelle du Groupement de Développement Agricole (GDA). Ce réseau est généralement géré par un chef GDA et un agent du pompage responsable de la distribution des eaux d’irrigation aux agriculteurs selon un calendrier bien déterminé. En contrepartie, la plupart des agriculteurs, pour augmenter la productivité des cultures et faire face à la sécheresse, comptent sur le pompage de leurs propres forages. D’ailleurs, le nombre de forages illicites a considérablement augmenté, surtout après la révolution en Tunisie et on peut même parler d’une économie des eaux souterraines (Collard et al., 2015 ; Finco et al., 2018 ; Leduc et al., 2017 ; Massuel & Riaux, 2017). Cette solution de pompage excessive est considérée comme étant une mal-adaptation aux conditions actuelles de pénurie d’eau et contribue à l’appauvrissement de la nappe (Massuel & Riaux, 2017 ; Snoussi et al., 2022). Dans la plaine de Kairouan, l’orientation à une gestion optimisée de l’offre des ressources en eau et le pilotage précis de l’irrigation d’une échelle parcellaire à une échelle régionale dans cette zone est nécessaire et urgente. Dans les travaux de (Saadi et al., 2015), les auteurs ont pu quantifier les volumes d’irrigation à une échelle parcellaire et à l’échelle de trois GDA dans la plaine avec le modèle SAMIR (SAtellite Monitoring IRrigation) et en utilisant les images SPOT4, Take 5 et SPOT5. Ces estimations peuvent être améliorées lorsque l’humidité du sol est disponible dont les résolutions temporelle et spatiale sont fines. Dans ce contexte, nous avons établis une approche pour quantifier l’humidité de la surface du sol à partir des données satellites. Cette variable est un élément nécessaire pour optimiser les doses d’irrigation selon la disponibilité d’eau dans le sol. L’établissement de cette approche requiert une base de données in-situ et satellites. La partie suivante de ce chapitre décrit en détails ces données utilisées.
II.2. Description de la base de données II.2.1. Données In-situ II.2.1.1. Récapitulatif des campagnes terrain
Afin de collecter les mesures in-situ dans la plaine de Kairouan, deux campagnes durant l’année agricole 2019/2020, interrompues par la pandémie COVID et une campagne en 2022 ont été conduites. Pour chaque campagne, nous avons réalisé les mesures terrains dans des parcelles de références que nous avons sélectionnées dont la superficie est généralement supérieure à un hectare. Les mesures terrain sont collectées simultanément aux passages des satellites SAR. • La première campagne s’est déroulée entre le mois d’octobre 2019 et fin février 2020. Nous avons sélectionné, mi-octobre, des parcelles de référence initialement occupées par des sols nus à différentes rugosités (11 parcelles) et des jachères (4 parcelles). Les rugosités des sols nus sont variables entre des sols lisses et des sols avec un moyen ou un grand labour. Les variables in-situ mesurées comprennent la rugosité et l’humidité du sol nu et les variables biophysiques des céréales : l’indice foliaire, la hauteur de la végétation et le contenu en eau de végétation. En raison de la pandémie du COVID, cette première campagne qui a duré quatre mois s’est arrêté en mars 2020 sans la finalisation du cycle des céréales, comme prévu initialement. Le Tableau 2 récapitule les mesures terrain réalisées sur cette campagne par date d’acquisition des images satellites. • La deuxième campagne consiste à suivre six parcelles de piments durant les trois mois d’été 2020 (juin, juillet et août). Il s’agit de couvrir tout le cycle de développement de ce couvert végétal.
55 Tableau 2. Récapitulatif [min, max] des mesures in-situ collectées lors de la première campagne terrain
des paramètres de rugosité (Hrms, Lc), de l’humidité à 5 cm de profondeur Mv (vol.%) et les variables biophysiques (Hauteur (H), Indice foliaire (LAI) et contenu en eau de la végétation (VWC)). Date 26/10/2019 27/10/2019 09/11/2019 23/11/2019 07/12/2019 20/12/2019 04/01/2020 13/01/2020 01/02/2020 15/02/2020 24/02/2020 25/05/2020 LAI VWC (m2/m2) (kg/m2) [0.46–6.46] [3.45–10.11] [6.6–25.5] [0.46–6.46] [3.45–10.11] [5.8–30.5] [13.6–30.1] [6.0–23.9] [0.46–6.46] [2.8–10.11] [9.1–30.4] [0.46–4.55] [2.8–10.11] [7.6–28.5] [16.8–41.3] [1.20–2.83] [0.1–0.9] [4.5–25.9] [20–49.6] [0.9–3.1] [0.1–0.9] [6.5–32.8] [10.7–53.5] [0.7–3.62] [4.6–28.2] [15.2–83.2] [0.31–4.06] [0.07–0.9] [3.7–32.1] [25.6–100] [0.8–4.50] [ –4.55] [0.8–10.11] [5.9–33.1] [28.1–105] [1.1–4.03] [0.13–1.09] [0.46–3.95] [2.8–10.11] [3.4–21.2] Hrms (cm) Lc (cm) Mv (vol.%) H (cm)
• La troisième campagne est réalisée durant le printemps du 2021/2022 dans une quinzaine des parcelles céréales à partir de la fin de Mars jusqu’à Mi-mai 2022 incluant l’indice foliaire et la hauteur de la végétation. Il s’agit d’une campagne exceptionnelle ayant pour objectif de finaliser les mesures stoppées par la pandémie du COVID en 2022. Tableau 3. Récapitulatif [min, max] des mesures in-situ collectées lors de la deuxième campagne terrain des paramètre
s de rugosité (Hrms, Lc), de l’humidité à 5 cm de profondeur (entre les lignes de végétation Mvinter-row (vol.%) et sur la ligne des piments Mvvegr-row) et les variables biophysiques des piments (Hauteur (H), Indice foliaire (LAI) et Fraction de couvert (Fc). 08/06/2020 17/06/2020 22/06/2020 24/06/2020 05/07/2020 06/07/2020 20/07/2020 23/07/2020 03/08/2020 04/08/2020 16/08/2020 17/08/2020 Hrms(cm) Lc (cm) [1.84–2.54] [1.84–2.54] [1.50–2.54] [1.50–2.54] [1.50–2.54] [1.50–2.54] [1.50–2.54] - [2.98–7.40] [2.98–7.40] [2,98–7.40] [2.98–7.40] [2.98–7.40] [2.98–7.40] [2.98–7.40] - Mvinter-row (vol.%) [4.90–6.10] [5.70–10.70] [5.50–21.10] [5.50–21.10] [5.80–27] [5.80–27] [6.40–31.40] [6.80–24.10] [6.80–20.10] [5.30–29.50] [5.30–29.50] Mvvegrow(vol.%) [12.50–17.50] [9.40–23.50] [5.60–27.60] [5.60–27.60] [6.80–28.50] [6.80–28.50] [8.90–30.90] [9.80–31] [9.80–31] [10.80–32.10] [10.80–32.10] LAI Hauteur (m) (m2/m2) Fc [0.19–0.40] [0.17–0.41] [0.17–0.41] [0.22–0.42] [0.22–0.42] [0.27–0.55] [0.22–0.56] [0.35–0.63] [0.39–0.64] [0.39–0.64] [0.15–0.18] [0.07–0.56] [0.07–0.56] [0.20–0.45] [0.20–0.45] [0.30–0.71] [0.32–0.71] [0.38–0.90] [0.50–1.75] [0.50–1.75] [0.20–0.33] [0.08–0.43] [0.08–0.43] [0.20–0.50] [0.20–0.50] [0.21–0.38] [0.25–0.38 [0.33–0.46] [0.17–0.46] [0.17–0.46]
II.2.1.2. Descriptif des parcelles de référence de céréales
Les parcelles des céréales irriguées sont sélectionnées dans la plaine de Kairouan entre la zone de Sidi Ali Ben Salem durant la campagne 2019/2020 et Chebika durant la campagne du printemps 2022 (Figure 25). Selon les différentes enquêtes avec les agriculteurs, les variétés du blé semés sont Karim, Dhahbi, Portodur, Maali et Salim. Le semis marque le début du cycle du blé en décembre avec quelques jours de décalage entre les agriculteurs. Ce cycle se scinde en trois périodes : une période végétative, une période reproductrice et une période de formation et de maturation du grain finie par la sénescence.
Figure 25. Localisation des parcelles de référence des céréales durant les deux campagnes terrain 2019/2020 et printemps 2022 dans la plaine de de Kairouan. Selon l’échelle de Gate 1995, la période végétative englobe une phase de germination-levée et une phase levée-tallage (Figure 26). Durant cette période, la chaleur, l’aération et l’état hydrique de la plante ainsi que la faculté germinative du grain gouvernent la levée et le tallage du blé (Eliard,1979, Evans, 1978 ; Masle-Meynard et al., 1981). L’apport des agriculteurs de la plaine en Di-Ammonium Phosphate (DAP) et en ammonitre, avec des doses variables entre 150 et 200 Kg par hectare, accélère la vitesse de tallage et le nombre des talles (Austin et Jones, 1975). 57 La période reproductrice succède la levée par une phase de montaison-gonflement marquée par une croissance active et un besoin accru en éléments nutritifs en azote. Vers mi-Mars dans la zone d’étude, l’éclatement de la gaine avec l’émergence des épis déclare le début de la phase d’épiaison du blé. Ce stade repère le maximum de la croissance de la plante avec l’élaboration du trois quarts de la matière sèche totale. Il s’agit d’une phase sensible au manque d’eau surtout avec les températures élevées qui altèrent à la fois la vitesse et la durée de remplissage des grains (Masle-Meynard et al., 1981 ; Slama et al., 2005).
Figure 26. Stades phénologiques du blé suivis lors des missions terrain durant 2019/2020 et printemps 2022 : (a)germination, (b, c) tallage, (d) montaison, (e) floraison, (f, g) remplissage des grains, (h, i) maturité des blés et (j) la récolte. Après la floraison, le mécanisme de la plante est orienté vers la maturation et le
issage des grains à partir de la biomasse produite. La partie aérienne du blé commence à jaunir dans les parcelles de Kairouan durant le mois d’avril au cours duquel les agriculteurs donnent le dernier tour d’eau d’irrigation pour renforcer le remplissage des grains. Avec l’augmentation de la température au mois de Mai, les grains maturent et perdent l’eau. Vers la fin du mois de Mai-début Juin, le blé est prêt à être récolté et on passe à la phase de sénescence au cours de laquelle la plante s’affaisse et les grains se détachent. Avec l’augmentation actuelle de la température dans la plaine de Kairouan, le sèchage des grains devient de plus en plus rapide et par conséquent la récolte devient de plus en plus précoce. Cet aléa climatique induit des changements du calendrier des agriculteurs et l’établissement des stratégies de pilotage des irrigations en précision surtout que le déficit hydrique dans les phases : montaison, floraison et remplissage des grains (Slama et al., 2005). 58 Pour bien suivre ces différentes phases phénologiques, nous avons examiné l’apport des données radar pour suivre la dynamique du blé durant les deux saisons agricoles 2018/2019 et 2019/2020 de 64 et 66 parcelles, respectivement identifiées dans la plaine de Kairouan.
II.2.1.3. Descriptif des parcelles de référence de piments
Le déficit hydrique affecte également les autres cultures de la plaine surtout les cultures maraîchères qui sont des consommatrices d’eau par excellence. Vu l’importance de cette culture dans la production agricole de la plaine de Kairouan (GIL, 2015), nous avons sélectionné sept parcelles de piments (Capsicum annumum) dont la superficie varie entre 1 et 2.6 ha dans la région de Sidi Ali Ben Salem (Figure 27). Selon les enquêtes avec les agriculteurs, les variétés les plus cultivées en plein champs dans la plaine de Kairouan sont Chaabani, piments Sesseb Baklouti Kairouan, M’sarreh et Starter. Figure 27. Localisation des parcelles de référence des piments durant la campagne terrain d’été 2020 dans la plaine de de Kairouan par deux rectangles en pointillé. Le contenu de chaque rectangle est représenté à droite de la figure. Les piments, généralement, sont plantés après la récolte des blés vers fin Mai – début Juin. Un déchaumage est conduit pour éliminer les chaumes. Ultérieurement, le sol est labouré et tracé en lignes. Sur ces lignes, les rampes d’irrigation localisée goutte à goutte sont installées pour 59 alimenter les plantules de piments. Le cycle de développement des piments
commenc
e
par
le d
éveloppement des
feuille
s, ensuite l’émergence et la floraison, le développement des fruits et
finit par la sénescence de la plante. Les lignes de piments
sont séparées par 1 mètre de sol nu, recevant une irrigation local
isée
à
partir
des goutteurs
à un
interval
le de 30
cm
(Figure 28).
Le développement des mauvaises herbes en sol nu ou bien sous les pieds de la végétation est probable. Dans ce cas, les agriculteurs procèdent un désherbage manuel des adventices souvent accompagnant la récolte des piments. La récolte des piments peut être faite à plusieurs fois en fonction du rendement de la variété plantée (Feldman et al., 2018). L’architecture des parcelles cultivées en rang et irriguées localement a induit une répartition hétérogène de l’humidité du sol dans le sol nu et sur la ligne de la végétation.
Figure 28. Stades phénologiques des piments suivis lors des missions terrain durant les trois mois Juin, Juillet et Août 2020. II.2.1.4. Mesures d’humidité
Les mesures d’humidité sont collectées à 20 points spatialement distribuées au niveau de chaque parcelle test en utilisant une sonde portable Thetaprobe dans les cinq premiers centimètres du sol. En se basant sur le même principe expliqué dans la section 2.1.1. du chapitre 1, grâce à la différence d’impédance, l’humidité du sol est mesurée en fonction de la constante diélectrique apparente en fonction du voltage mesuré et des constantes dépendantes des types du sol à calibrer (Miller & Gaskin, 1999). 60 Sous forme des valeurs volumétriques, ces mesures sont calibrées par des mesures gravimétriques dans des anciens travaux (Zribi et al., 2011, 2014). Les incertitudes des mesures par Thetaprobe à une calibration spécifique est estimée à 2 vol.% par rapport à une erreur de 5 vol.% lorsque la calibration des probes est générale (Miller & Gaskin, 1999). Nous calculons par la suite la moyenne d’une vingtaine des points pour avoir une moyenne par parcelle. Durant les missions terrain, les mesures d’humidité sont prises dans un intervalle de quatre heures autour du passage satellite tout en tenant en compte des irrigations et des pluies tombées. Les valeurs des humidités Mv varient entre 3 et 33.1 vol.% pour l’année agricole depuis Octobre 2019 jusqu’à Février 2020. Les valeurs d’humidité de surface du sol, en printemps 2022, fluctuent entre 7.7 vol.% et 28.9 vol.%.
| 50,953
|
39/hal.univ-lorraine.fr-tel-03105847-document.txt_9
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,457
| 14,474
|
A) L'INSCRIPTION DU DROIT DE PROPRIETE DANS LE CORPUS EUROPEEN 240.
L'inscription du droit de propriété dans la Déclaration universelle des droits de l'homme. Avant son inscription dans l'article 1er du premier Protocole additionnel à la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales le 20 mars 1952, le droit de propriété n'avait fait qu'une seule apparition en droit européen. Il s'agit de l'article 17 du texte de la Déclaration universelle des droits de l'homme élaboré par Eleanor Roosevelt et René Cassin en 1948. Celui-ci déclare que : « Toute personne, aussi bien seule qu'en 725. Les articles 6(2) et 6(3) du Traité sur l'Union européenne (TUE) stipulent que : « L'Union adhère à la Convention européenne de sauvegarde des droits de l'Homme et des libertés fondamentales. Cette adhésion ne modifie pas les compétences de l'Union telles qu'elles sont définies dans les traités. Les droits fondamentaux, tels qu'ils sont garantis par la Convention européenne de sauvegarde des droits de l'Homme et des libertés fondamentales et tels qu'ils résultent des traditions constitutionnelles communes aux États membres, font partie du droit de l'Union en tant que principes généraux ». Les atteintes publiques à la propriété privée immobilière collectivité, a droit à la propriété. Nul ne peut être arbitrairement privé de sa propriété ». Le concept juridique de propriété tel qu'entendu par cet article aurait pu être extrêmement riche s'il ne s'agissait pas que d'une simple proclamation des droits. En fait, ce texte a autant de valeur qu'une « lettre [écrite] au père Noël »726. Dépourvue de valeur normative, les requérants ne peuvent pas se prévaloir de sa protection en cas de litige727. Le caractère inexploitable de cet article le maintien malheureusement à l'état d'oeuf infécond l'empêchant de se développer, d'évoluer et de se perfectionner. 241. L'inscription du droit de propriété dans la Convention. Deux années après l'adoption de la Déclaration universelle des droits de l'homme, le 4 novembre 1950, la Convention européenne de sauvegarde des droits de l'homme est signée à Rome. Toutefois, il n'y a aucune mention faite dans ce texte au droit de propriété. Contrairement aux idées reçues, il ne s'agit pas d'un oubli. En effet, les États membres du Conseil de l'Europe n'étaient pas en accord sur le concept même de propriété et ne souhaitant pas retarder la proclamation du texte, ils décidèrent d'adopter la Convention en l'état. Les discussions ont ensuite continué jusqu'au 20 mars 1952, date à laquelle le Protocole additionnel n°1 à la Convention européenne a été proclamé. Michel Lascombe explique dans l'un de ses commentaires que « cette solution présentait par ailleurs l'avantage de permettre aux États hostiles à l'inclusion d'un tel droit dans la Convention de pouvoir ratifier celle-ci mais non le Protocole » . D'ailleurs, certains États ont refusé la ratification du Protocole, c'est le cas de la Suisse et de Monaco. Quant à la France, elle ne ratifia pas non plus immédiatement la Convention et le Protocole additionnel729. Il fallut attendre la présidence par intérim d'Alain Poher vingt-quatre ans plus tard pour que ces textes soient ratifiés dans l'ordre juridique interne. 242. Le premier Protocole additionnel à la Convention comprend six articles730 mais seul le premier est réservé à la protection de la propriété731. Il est divisé en deux alinéas rédigés comme suit : 726. KIRKPATRICK (J.), « Establishing a Viable Human Rights Policy », thirdworldtraveler.com, 1981: « Such declarations of human "rights" take on the character of "a letter to Santa Claus"- as Orwin and Prangle noted ». 727. Les justifications juridiques des atteintes publiques à la propriété privée immobilière
« 1. Toute personne physique ou morale a droit au respect de ses biens. Nul ne peut être privé de sa propriété que pour cause d'utilité publique et dans les conditions prévues par la loi et les principes généraux du droit international. 2. Les dispositions précédentes ne portent pas atteinte au droit que possèdent les États de mettre en vigueur les lois qu'ils jugent nécessaires pour réglementer l'usage des biens conformément à l'intérêt général ou pour assurer le paiement des impôts ou d'autres contributions ou des amendes. » À la lecture dudit article, l'on constate que le premier alinéa pose le principe du droit au respect de ses biens tandis que le second évoque les exceptions à ce droit732. 243. L'inscription du droit de propriété dans la Charte des droits fondamentaux. Après l'adoption de la Convention européenne dans les années 1950, de nombreux textes ont vu le jour dans l'ordre juridique européen, tels que le Pacte International des droits économiques et sociaux (PIDESC) ou encore que le Pacte international des droits civiques et politiques (PIDCP) datant de l'année 1966. Hormis la Convention européenne des droits de l'homme, il n'y a qu'un seul texte qui fait mention du droit de propriété : il s'agit de la Charte des droits fondamentaux de l'Union européenne de 2000. À l'instar de la Déclaration de 1789, le droit de propriété est mentionné à l'article 17. Il prévoit : « 1. Toute personne a le droit de jouir de la propriété des biens qu'elle a acquis légalement, de les utiliser, d'en disposer et de les léguer. Nul ne peut être privé de sa propriété, si ce n'est pour cause d'utilité publique, dans des et conditions prévus par une loi et moyennant en temps utile une juste indemnité pour sa perte. L'usage des biens peut être réglementé par la loi dans la mesure nécessaire à l'intérêt général. 2. La propriété intellectuelle est protégée. » 244. Contrairement à la Déclaration universelle des droits de l'homme de 1948, le texte de 2000 est doté d'une force contraignante 733, du moins depuis 2007 734. Selon les explications du praesidium735 de la Charte, l'interprétation du droit de propriété a été modernisée. En réalité, l'alinéa 1er de l'article 17 de la Charte qui garantit la propriété des biens corporels ne change pas fondamentalement le sens et la portée de l'article 1er du premier Protocole additionnel 732. Pour une analyse approfondie des dispositions dudit article, v. développement infra. Conformément aux termes de l'article 6 du TUE, la Charte des droits fondamentaux dispose de la même valeur juridique que celle des Traités fondateurs de l'Union européenne. 734. La Charte est signée par les États membres de l'Union européenne dans les années 2000, en même temps que le Traité de Nice, puis elle sera reprise à Lisbonne le 13 déc. 2007, lors de l'adoption du Traité du même nom : JOUE n° C 303/17 – 14/12/2007. 735. Il s'agit du bureau de la Convention qui a été chargé d'apporter des explications sur les différents droits et principes reconnus dans la Charte et même si elles n'ont aucune valeur juridique contraignante, ces explications constituent un outil de travail extrêmement riche dans l'interprétation des dispositions de la Charte. Les atteintes publiques à la propriété privée immobilière puisque, conformément à l'article 52§3 de la Charte, les droits proclamés dans ce texte ne peuvent pas restreindre la portée de la Convention de Rome. En effet, elle peut uniquement l'élargir en faveur des citoyens de l'Union européenne736. Par ailleurs, si le second alinéa faisant mention de la propriété intellectuelle semble lui, novateur, le droit international protégeait déjà en réalité l'existence de ces biens. Il ne s'agit là que d'une codification de la jurisprudence préexistante737. Même si la question de la conformité du droit français au droit de l'Union ne semble pas à remettre en 738, en particulier en raison des principes fondamentaux d'effet direct739 et de la primauté du droit européen740, la possibilité d'invoquer la protection de la Charte n'est envisageable que lorsque les États membres ont porté une atteinte à l'un ou plusieurs droits fondamentaux des individus définis dans le cadre de l'Union européenne741. Autrement dit, l'État doit avoir agi dans le champ du droit de l'Union. Or, la plupart des règles relatives à la protection des biens mobiliers et immobiliers sont issues du droit interne ou du droit européen de la Convention mais elles ne sont en aucun cas issues de la transposition en droit interne d'une directive européenne et ne mettent donc pas en oeuvre le droit de l'Union. 736. Cet article précise que : « dans la mesure où la présente Charte contient des droits correspondant à des droits garantis par la Convention européenne de sauvegarde des droits de l'Homme et des libertés fondamentales, leur sens et leur portée sont les mêmes que ceux que leur confère ladite convention. Cette disposition ne fait pas obstacle à ce que le droit de l'Union accorde une protection plus étendue ». 737. « L'expression ''protection de la propriété industrielle et commerciale'' figurant à l'article 36 du traite CEE inclut la protection que confère le droit d'auteur, notamment pour autant que celui-ci est exploite commercialement sous la forme de licences susceptibles d'affecter la distribution, dans les différents états membres, de marchandises qui incorporent l'oeuvre littéraire ou artistique protégée » : CJCE, 20 janv. 1981, Musik-Vertrieb membran et K-tel International contre GEMA, C-55/80 : Rec. 147. 738. CJCE, 18 janv. 2007, CGT. e.a., aff. C-385/05 : Rec. p. I-611. 739. Les normes du droit de l'Union européenne créent non seulement des obligations à l'égard des États membres mais également des droits pour les justiciables qui peuvent s'en prévaloir : CJCE, 5 février 1963, Van Gend & Loos, Aff.26/62 : Rec. 3. 740. Avec l'entrée en vigueur du Traité de Lisbonne en janvier 2009, la Charte des droits fondamentaux de 2000 a acquis la même valeur que les traités fondateurs donc elle n'a pas besoin d'être transposée en droit interne pour être dotée d'une force contraignante, conformément au principe de primauté du droit communautaire sur les législations nationales : in CJUE, 15 juillet 1964, Costa c/ ENEL, aff. 6/64 : Rec. 1141. 741. V. les explications du praesidium sous l'article 51-1 et s. de la Charte des droits fondamentaux de l'UE. 742. Les requérants invoquent fréquemment la protection de l'article 17 alinéa 2 de la Charte de 2000 : V. Colloque Cour de cass., « L'influence de la jurisprudence de la CJUE sur le droit français de la propriété intellectuelle », 16 mars 2018. 743. SERMET (L.), La Convention européenne des droits de l'homme et le droit de propriété, Dossier sur les droits de l'homme, éd. du Conseil de l'Europe, n° 11 rév, 1998, p. 7. Les justifications juridiques des atteintes publiques à la propriété privée immobilière B) LE DROIT AU « RESPECT DES BIENS »
245. Le respect des biens d'autrui. La notion européenne de biens semble se différencier légèrement de la notion interne de propriété, ne serait-ce que sur la terminologie. En effet, le droit européen n'envisage pas de protéger le principe même du droit de propriété, mais il émet le souhait de « respecter » les biens d'autrui744. Pure sémantique ou réelle distinction? En fait, le droit au respect des biens au sens du droit européen s'analyse tout d'abord comme le droit de disposer de ses biens, « élément traditionnel fondamental » du droit de propriété 745. Puis, comme le droit d'user et enfin comme le droit de jouir des biens que l'on a déjà en notre possession746. Sur le plan national, la portée du droit de propriété semble un peu plus large parfois. Par exemple, il garantit, entre autres, le droit d'accession à la propriété747 qui est exclu du champ de protection de l'article 1er du Protocole n° 1 à la Convention748. Sur d'autres plans, le droit français apparaît moins protecteur. Par exemple, le droit de la convention considère que les créances749 constituent des éléments du droit de propriété, alors que le droit français refuse de l'intégrer au nombre des éléments protégés par le droit constitutionnel de la propriété750. 246. Concernant les individus pouvant se prévaloir de la protection de l'article 1er du premier Protocole additionnel, le droit européen ne diffère pas sur ce point du droit français. En effet, chacun « a droit au respect de ses biens » au sens dudit article, indépendamment du fait de savoir s'il est une personne physique, morale, privée ou publique751. Dans le processus de 744. Pour
approfondir, v. les Cahiers de l'IDEDH 2003-9, p. 213 à 237 ; ainsi que la communication de Frédéric SUDRE sur « Le droit au respect de ses biens au sens de la Convention européenne des droits de l'homme », in La protection du droit de propriété par la Cour européenne des droits de l'homme, IDHAE, Bruylant, Paris, 26 mai 2004, p. 1 à 18. 745. CEDH, 13 juin 1979, Marckx c/ Belgique, série A n° 31, §63, GACEDH n° 42 : CDE 1980. 473, obs. COHEN-JONATHAN (G.) ; AFDI 12980. 317, obs. PELLOUX (R.) ; JDI 1982. 183, obs. ROLLAND (P.). 746. Les atteintes publiques à la propriété privée immobilière garantie de ces droits, la Cour européenne apparaît comme un véritable degré de juridiction suprême, car les normes qu'elle dégage doivent, par principe, être respectées par les États contractants752. Le nombre de fois où la juridiction de Strasbourg a été saisie par un justiciable français 753 ainsi que le nombre de condamnation de la France par la Cour de Strasbourg témoigne de l'intérêt qu'il y a de préserver l'ordre juridique européen754. C) L'INVOCATION DU DROIT AU « RESPECT DES BIENS » PAR LES JUSTICIABLES
247. Le champ de protection de la propriété. Les notions de « propriété » au sens du droit interne et de « biens » au sens du droit européen entendent, toutes deux, protéger l'ensemble des biens meubles, immeubles755 et des droits réels immobiliers756 des bénéficiaires concernés. Il existe certaines différences parfois. À titre d'exemple, la notion de « propriété » au sens du droit interne exige d'apporter la preuve de l'existence d'un titre de propriété, y compris en matière mobilière757. Or, la notion de « biens » au sens de la convention n'impose pas, quant à elle, d'apporter l'existence d'une telle preuve758, ce qui facilite l'invocation de l'article 1er par le requérant. Cette règle paraît être, sur ce point, plus protectrice que les dispositions internes relatives à la protection de propriété, ce qu'une partie de la doctrine critique d'ailleurs759. 248. Comme en droit français, le droit européen intègre les « nouveaux droits » dans le champ des biens protégés par l'article 1er du premier Protocole. Il s'agit de la propriété industrielle, QUÉZEL-AMBRUNAZ; ibid. 2183, obs. MALLET-BRICOUT et REBOUL-MAUPIN ; ibid. 2468, obs. TRÉBULLE ; AJDI 2011. 111, chron. GILBERT ; RDI 2010. 389, obs. FOULQUIER. 752. JESSUA-LEPAGE (C.), « La Cour européenne affirme sa suprématie sur les juridictions nationales administratives du Palais », GP 11-13 juillet 1993, doct, p. 13. 753. Les chiffres recensés à la suite d'une étude réalisée par le Professeur SUDRE démontre l'intérêt croissant du justiciable à isir la juridiction de Strasbourg. En onze ans, 1827 requêtes ont été comptabilisées uniquement en ce qui concerne les justiciables français, l'État français se plaçant en tête des états les plus condamnés par la Cour européenne des droits de l'homme. Pour approfondir, v. : SUDRE (F.), « Le contentieux français à Strasbourg, bilan de onze ans de recours individuel », in Le droit français et la Convention européenne des droits de l'homme. 1974-1992, Actes du colloque de Montpellier, févr. 1993, éd. NP Engel, 1994
.
754
. CO
HEN
-JONATHAN
(
G.), « La France et la Convention européenne des droits de l'homme. L'arrêt Bozano c. France », RTDE 1987, p. 255. 755. Comm. EDH, 8 févr. 1978, Wiggins c/ Royaume-Uni, aff. n° 7456/76 : Décisions et rapports 13, p. 40. 756. Comm. EDH, 13 déc. 1984, S. c/ Royaume-Uni, aff. n° 10741/84 : Décisions et rapports 41, p. 226 et s. 757. Cette preuve peut facilement être apportée en droit français conformément au principe de l'article 2276 du Code civil : « En fait de meuble, possession vaut titre ». 758. Par exemple, dans une décision, la CEDH estime que « pour les besoins du présent litige, il y a lieu de considérer ces derniers comme propriétaires des terrains en cause » : CEDH, 24 juin 1993, Papamichalopoulos c/ Grèce, § 39, série A n° 260-B. 759. Le Professeur SERMET conteste le fait que la Cour soit en mesure d'affirmer ou non l'existence d'un titre de propriété. À propos de l'affaire Raffineries grecques Stran et Stratis Andreadis c/ Grèce (CEDH, 9 déc. 1994, aff. n° 13427/87, § 59 : Rec.) 182 Les justifications juridiques des atteintes publiques à la propriété privée immobilière commerciale et intellectuelle760. En revanche, si la Cour européenne de sauvegarde des droits de l'homme considère que les droits personnels 761 tels que les créances 762, les prestations sociales763 ou les versements obligatoires764 sont des éléments du droit de propriété, le droit français semble, quant à lui, plus réticent puisqu'il estime qu'une créance 765, un avantage fiscal766 ou un privilège professionnel767 ne peuvent pas être perçus comme des éléments du droit de propriété. Par conséquent, ces éléments ne peuvent pas de bénéficier du champ de protection de l'article 17 de la Déclaration de 1789. À cet égard, le droit conventionnel de la propriété semble être plus protecteur que le droit constitutionnel de la propriété. 249. Le droit constitutionnel de la propriété établit une distinction binaire traditionnelle entre les privations de propriété, protégées par l'article 17 de la Déclaration de 1789 et les limitations de propriété, proté gées par l'article 2 du même texte. Là encore, le droit conventionnel de la propriété se rapproche de la conception française de la propriété car il fait, lui aussi, une distinction entre les privations et les limitations de propriété. Les privations sont expressément mentionnées dans la seconde phrase du premier paragraphe de l'article 1er du protocole n°1 stipulant que « nul ne peut être privé de sa propriété » et les limitations sont prévues au second paragraphe, au travers l'expression « l'État [peut] réglementer l'usage des biens ». En revanche, le droit conventionnel de la propriété a développé une distinction supplémentaire puisqu'il crée 760. CEDH, gr. ch., 11 janv. 2007, Anheuser-Busch Inc. c/ Portugal, aff. Les atteintes publiques à la propriété privée immobilière une troisième catégorie de norme ignorée en droit interne, il s'agit de l'atteinte « à la substance » du droit de propriété. §2/ La présence de trois catégories de normes distinctes dans l'article premier 250. Les différentes catégories d'atteintes à la propriété privée. Si l'on s'attache à respecter à la lettre les termes de l'article 1er du Protocole additionnel n° 1, il ne devrait exister que deux catégories d'atteintes possible. D'une part, dans le premier paragraphe, il y est fait mention de la notion de privation de propriété qui correspond à la catégorie d'atteintes protégées également par l'article 17 de la Déclaration de 1789 (A). D'autre part, dans le second paragraphe de l'article 1er du Protocole, il est expressément fait mention de la catégorie des atteintes visant à réglementer l'usage des biens qui ressemble « trait pour trait » à celle qui est visée dans l'article 2 dudit texte de 1789 (B). Pourtant dans la décision Sporrong et Lonnröth c/ Suède rendue en 1982 768, la Cour de Strasbourg interprète les stipulations dudit article premier comme comprenant « trois normes distinctes ». Elle les résume de la manière suivante : « La première, d'ordre général, énonce le principe du respect de la propriété ; elle s'exprime dans la première phrase du premier alinéa. La deuxième vise la privation de propriété et la soumet à certaines conditions ; elle figure dans la seconde phrase du premier alinéa. Quant à la troisième, elle reconnaît aux États le pouvoir, entre autres, de réglementer l'usage des biens conformément à l'intérêt général et en mettant en vigueur les lois qu'ils jugent nécessaires à cette fin ; elle ressort du deuxième alinéa » 251. La cour a ainsi jugé utile de créer une troisième norme distincte de la privation de propriété et de la réglementation de l'usage des biens qu'elle choisit de mentionner en premier dans sa décision, attestant de l'importance de l'intérêt de son existence. Il s'agit du « principe du respect de la propriété » qui constitue, selon elle, une norme « d'ordre général » 769. C'est dans ce contexte qu'elle développe une interprétation extensive de l'article 1er et qu'elle créée une nouvelle catégorie de norme prétorienne d'atteinte à la propriété, plus connue aussi sous le nom « d'atteinte à la substance » du droit de propriété (C). 768. CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède, n° 7151/75, série A n° 52, paragraphe 61.. CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède, n° 7151/75, série A n° 52, paragraphe 63 ; SUDRE (F.), « Le ''droit au respect de ses biens'' au sens de la Convention européenne des droits de l'homme », in La protection du droit de propriété par la Cour européenne des droits de l'homme, IDHAE, Bruylant, Paris, 26 mai 2004, p. 11. Les justifications juridiques des atteintes publiques à la propriété privée immobilière A) LA PREMIERE CATEGORIE DE NORMES EXPRESSEMENT PREVUE PAR L'ALINEA 1ER : LA PRIVATION DE PROPRIETE
252. La notion de privation de propriété au sens du droit européen. La privation suppose l'existence d'un transfert de propriété d'un ancien propriétaire vers un nouveau propriétaire. Le transfert du bien est généralement dû à une mesure de dépossession prise par les autorités. Ainsi en est-il de la mesure d'expropriation770 ou de la mesure de nationalisation771. À l'instar du droit civil de la propriété, l'article 1er du Protocole n°1 à la Convention européenne des droits de l'homme précise que la mesure de dépossession doit être justifiée par une « cause d'utilité publique ». Dès lors que cette cause est suffisamment justifiée par les autorités, l'opération peut être menée et toutes les personnes visées par la mesure de privation sont dans l'obligation de se soumettre à la volonté publique en cédant leur bien. Le fait de conditionner l'opération à une cause « d'utilité publique » permet de protéger les propriétaires contre les transferts autoritaires de propriété qui, pour la plupart, résultent de la mise en oeuvre de la politique économique et sociale des États membres. D'ailleurs, sur ce point, la Cour a estimé qu'elle « ne saurait substituer sa propre appréciation à celle des autorités nationales » 772 pour apprécier la légitimité des actions politiques mises en place au sein des États membres de la Convention. Cette marge d'appréciation attribuée aux États est importante car elle permet de ne pas cristalliser leurs opérations menées dans le but de satisfaire l'intérêt général. Toutefois, elle ne doit pas laisser penser que les États ne sont pas contrôlés dans manoeuvre au regard de l'article 1er du Protocole n° 1. En effet, nombreuses sont les décisions qui prouvent que la Cour a déjà condamné les États membres sur ce fondement773. 253. Enfin, une dernière précision doit être formulée sur l'interprétation de la notion de « privation » de propriété. La Cour européenne considère que seule une extinction « définitive »774 du droit de propriété peut constituer une mesure de privation au sens de l'article 1er du Protocole n°1. Autrement dit, elle exclut du champ de protection de l'alinéa premier toutes les mesures de privation « temporaire » ou « provisoire » qu'elle intègre dans le champ de protection de 770. CEDH, 13 déc. 1979, Andorfer Tonwerke c/ Autriche, n° 7987/77, Décisions et rapports 18, p. 31. CEDH, 24 mai 1967, X. c/ Royaume-Uni, n° 3039/67, Rec. des décisions 23, p. 66. 772. CEDH, 21 févr. 1986, James c/ Royaume-Uni, A86, paragraphe 46. 773. Pour un exemple de condamnation de la Belgique : CEDH, 20 nov. 1995, Companiera Naviera SA c/ Belgique, A332 ; De la France : CEDH 1994, Hentrich c/ France, A296 A ; ou encore CEDH, 29 avr. 2000, Chassagnou c/ France,??, ; De la Grèce : CEDH, 25 mars 1999, Papachelas c/ Grèce, ; De l'Italie : CEDH, 30 mai 2000, Carbonara et Ventura c/ Italie, ; Du Royaume-Uni : CEDH, 21 févr.1986, James c/ RoyaumeUni, A86, paragraphe 46 ; De la Suède : CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède, n° 7151/75, série A n° 52, paragraphe 61 ; De la Turquie : CEDH, 9 juillet 1997, Akkus c/ Turquie, n° 19263/92 ; 774. CEDH, 23 avr. 1987, Poiss, série A, n° 117. 771 185
Les atteintes publiques à la propriété privée immobilière l'alinéa second sur la réglementation de l'usage des biens775. Cette distinction traditionnelle opérée par la Cour de Strasbourg entre les dépossessions définitives et temporaires de propriété rappelle les orientations récentes de la jurisprudence nationale qui applique depuis 2013 une distinction entre les « atteintes aboutissant à une extinction du droit de propriété » et « n'aboutissant pas à une extinction du droit de propriété » permettant de caractériser une voie de fait attributive de compétence au juge judiciaire776. Enfin, les juridictions nationales ont décidé de s'aligner à la vision européenne. Ce constat est important car il prouve une volonté de renforcer le dialogue des juges et la bonne administration de la justice. En conclusion, ne peuvent être considérées comme une privation de propriété au sens de l'article 1er que les mesures de dépossession dont les effets provoqués sur le droit de propriété sont irréversibles. Paradoxalement, il existe quelques exceptions dans la jurisprudence où l'absence d'une mesure de privation a tout de même conduit la Cour a caractériser la privation de propriété au sens de l'alinéa 1er. 254. L'appréciation extensible de la notion de privation. Le champ de protection de la privation de propriété résultant de l'alinéa 1er de l'article 1er du Protocole n° 1 semble plus large que celui du droit français prévu par l'article 17 de la Déclaration de 1789. Les justifications juridiques des atteintes publiques à la propriété privée immobilière interprétation audacieuse, quoique critiquable, des termes de l'article 1er du Protocole n°1 puisqu'elle qualifie la remise à la vente par le requérant de vente « forcée ». Or, en l'espèce, aucune mesure administrative n'avait été prise par les autorités en vue de contraindre le requérant à réaliser cette vente. Pour autant, le refus de délivrer une autorisation de construire ou d'exercer des travaux confortatifs sur un terrain nouvellement acquis ne peut-il pas être considéré comme une mesure implicite de privation? En réalité, la réponse à cette question est simplement non. En effet, il est impossible de considérer ce refus comme tel dans la mesure où aucune autorité n'exerçait de pression sur le propriétaire dans le but qu'il cède le bien. En effet, le propriétaire décide de vendre le bien car l'utilisation qu'il voulait en faire ne correspondait pas à l'utilisation que les autorités lui permettaient. Partant de ce constat, la vente ne semble pas être forcée, mais elle pourrait être éventuellement viciée « pour erreur sur les qualités essentielles de la chose », objet du contrat, au sens du nouvel article 1133 du Code civil issu de l'ordonnance de 2016778. Cet article permet à tout cocontractant d'obtenir l'annulation d'un contrat de vente pour vice de consentement. Ou encore, il pourrait également s'agir ici d'un cas de limitation de propriété ou en droit européen, d'un cas de réglementation de l'usage des biens au sens de l'alinéa 2 de l'article 1er du Protocole n°1. B) LA SECONDE CATEGORIE DE NORMES EXPRESSEMENT PREVUES A L'AL. 2 : LA REGLEMENTATION DE L'USAGE DES BIENS
255. La notion de limitation de propriété au sens du droit européen. Le droit conventionnel n'utilise pas les notions françaises de « limitations » ou de « restrictions » de propriété, il use de la notion de « réglementation de l'usage des biens », mais en réalité ces notions ont les mêmes caractéristiques. En effet, conformément aux stipulations de l'alinéa 2nd de l'article 1er du Protocole n° 1, les États contractants peuvent prendre les mesures nécessaires en vue de réglementer l'usage des biens. Par définition, la réglementation de l'usage des biens indique que le propriétaire n'est pas « privé » de son bien à proprement parler, c'est-à-dire qu'il n'y a eu aucun transfert de propriété vers un nouveau propriétaire. 256. Dans le but de bénéficier du champ de protection du second paragraphe de l'article 1er, la réglementation prise par les autorités doit affecter l'un ou plusieurs attributs (usus, fructus, 778. Il s'agit de l'ordonnance n°2016-131 du 10 févr. 2016 portant réforme du droit des contrats, du régime général et de la preuve des obligations. 187 Les atteintes publiques à la propriété privée immobilière abusus) du droit de propriété
779. À cet égard, le second paragraphe prévoit deux cas dans lesquels les autorités sont habilitées à réglementer l'usage d'un bien. Le premier cas est plutôt restrictif puisqu'il vise à « assurer le paiement des impôts ou d'autres contributions ou des amendes » 780. A contrario, le second cas est plutôt une catégorie « fourre-tout » puisqu'il autorise l'État à prendre toutes les mesures de réglementation nécessaire « conformément à l'intérêt général ». En effet, pour apprécier la validité de la mesure, la Cour vérifie que les autorités concernées ont préservé « un juste équilibre entre les exigences de l'intérêt général de la communauté et les impératifs de sauvegarde des droits fondamentaux de l'individu »781. Autrement dit, la Cour décerne un brevet de conventionnalité aux mesures de réglementation de l'usage des biens pour des considérations liées à l'intérêt général. La balance des intérêts en présence bascule tout naturellement en faveur de la sauvegarde des intérêts publics au détriment de l'intérêt privé. Par exemple, la Cour considère que ce critère « du juste équilibre » est rempli à chaque fois que les autorités mettent en place une politique qui a pour but de protéger l'environnement782, réduire le prix des logements783, ou d'éviter une pratique anarchique de la chasse784. De même, la Cour considère que le principe de non-indemnisation prévu dans toutes les autorisations d'occupation temporaire du domaine public ne constitue pas en lui-même une mesure disproportionnée en vue de la réglementation de l'usage des biens des requérants, opérée dans un but d'intérêt général785. En revanche, la Cour admet que la sanction imposée aux requérants dans le cadre d' confiscation de biens peut être disproportionnée au regard 779. À propos de requérant qui ne pouvaient ni user, ni louer, ni vendre leurs biens : CEDH, 19 déc. 1989, Mellacher et a. c/ Autriche, n° 10522/83, §44 : RTDH 1990. 387, note FLAUSS. 780. Ce deuxième élément ne concerne pas la prise de possession de bien immobilier, par conséquent, il ne sera pas approfondi dans cette étude réservée à l'analyse des biens à caractère immobilier. 781. CEDH, 23 sept. 1982, Sporrong et Lönnroth c/ Suède, n° 7151/75 et 7152/75 ; CJCE, 30 juillet 1996, Bosphorus, aff. C-84/95, Rec. I. 3953, point 21. 782. CEDH, 29 nov. 1991, Pine Valley Developments Ltd et a. 188 Les justifications
juridi
ques des atteintes publiques à la propriété privée immobilière du manquement commis
786. En droit européen, si la confiscation est une mesure de réglementation de l'usage du bien, en droit français, elle constitue une mesure de privation de propriété qui n'ouvre aucun droit à indemnité résultant de sa vocation punitive787. 257. Le bien-fondé de la distinction limitation et privation de propriété. Comme dit précédemment, la décision Sporrong et Lönnroth c/ Suède applique la distinction résultant de l'article 1er, c'est-à-dire celle qui tend à distinguer privation et réglementation de l'usage du droit de propriété. Y a-t-il un réel intérêt à appliquer une distinction entre privation et réglementation alors que dans les deux cas, le propriétaire pourra invoquer les bienfaits de l'article 1er du premier Protocole? En réalité, il y a un intérêt à les distinguer car même si, en effet, c'est l'article 1er qui s'applique dans les deux cas, les garanties ne seront pas les mêmes en cas de privation ou de réglementation à l'usage du bien. La première catégorie de norme, la privation de propriété, s'applique en faveur du propriétaire en cas de dépossession totale et définitive d'un bien mobilier ou immobilier. Autrement dit, le lien qui unit le propriétaire à sa chose doit être définitivement rompu pour entrer dans le champ de la privation de propriété du premier paragraphe. A priori, les propriétaires frappés d'une nationalisation, d'une confiscation ou d'une expropriation doivent pouvoir invoquer la protection dudit paragraphe dès lors qu'ils ont épuisé toutes les voies de recours interne. La seconde catégorie de norme, la réglementation de l'usage du bien correspond à une atteinte portée dans l'exercice des droits des propriétaires (usus, fructus et abusus). Autrement dit, le propriétaire n'est pas « privé » de son bien au sens littéral du terme, il peut en disposer continuellement mais les conditions de son utilisation peuvent être compromises par des éléments de fait ou de droit, c'est-à-dire qu'il ne peut ni en user, ni en jouir de manière optimale. C'est le cas, par exemple, du propriétaire qui est frappé d'une servitude d'occupation temporaire sur son bien pour les besoins de travaux publics788 car cette charge implique pour le servant d'accepter la présence des agents sur son terrain pendant une durée pouvant aller jusqu'à cinq ans. Les atteintes publiques à la propriété privée immobilière accordée aux propriétaires sera donc moins importante que ce qu'elle aurait été si la cour avait qualifié la privation de propriété789. 258. La Cour européenne des droits de l'homme a un rôle qui n'est pas négligeable dans le processus de réparation des propriétaires qui font l'objet d'une mesure de privation de propriété ou de réglementation de l'usage du bien, en particulier sur le plan indemnitaire car le droit de propriété, faut-il le rappeler, est un droit monnayable 790, sauf circonstances exceptionnelles pouvant justifier le refus de versement d'une indemnité qui, somme toute, demeurent des cas d'une rareté exceptionnelle791. Comme l'explique Jean-François Struillou dans ses travaux, le but de cette indemnité est de permettre au propriétaire de réaliser une « opération blanche : ni bénéfice, ni perte »792. Nul doute que le bénéfice de l'existence d'une telle indemnité ne pourrait être remise en cause en droit, sans quoi, l'article 1er du Protocole n°1 « n'assurerait qu'une protection largement illusoire et inefficace du droit de propriété » 793. Il s'agit donc d'une obligation d'indemnisation qui pèse sur tous les États contractants 794, si bien que la Cour condamne l'absence totale d'indemnisation des requérants car elle rompt « le juste équilibre entre les exigences de l'intérêt général de la communauté et les impératifs de la sauvegarde des droits individuels »795. Le dépossédé reçoit une indemnité obligatoire du fait de la dépossession mais la particularité du système européen de réparation réside dans le fait que si le dépossédé n'a perçu aucune indemnité destinée à compenser la perte du bien ou que l'indemnité perçue n'est pas suffisante, il peut, soit prétendre au versement d'une indemnité complémentaire en compensation de la gêne occasionnée, soit prétendre à une restitution du bien acquis par les autorités. A contrario, le propriétaire qui est frappé d'une simple mesure de réglementation de l'usage de son bien ne bénéficie pas du principe d'obligation d'indemnisation qui pèse sur les États, ce qui ne signifie pas qu'il ne sera pas indemnisé. Cela dépend des cas sur lesquels la Cour va être saisi, à charge pour elle d'apprécier s'il y aura réparation ou non sur le fondement 789. V. infra, développement sur la satisfaction équitable. V. CEDH, 21 févr. 1986, James et a. c/ Royaume-Uni, n° 8793/79, §54 ; ou encore : V. CEDH, 5 nov. 2002, Pincova c/ Rép. Tchèque, n° 36548/97 : AJDA 2003. 603, chron. FLAUSS. 791. Rares sont les circonstances qui peuvent justifier le non versement d'une indemnité réparatrice en faveur du dépossédé (CEDH, 9 déc. 1994, Les Saints monastères c/ Grèce, n° 13092/87, §71 : AJDA 1995. 212, chron. FLAUSS ; D. 1996. 329, note FIORINA). La réunification allemande constitue un cas d'une rareté exceptionnelle qui justifie le non-versement de cette indemnité : CEDH, gr. ch., 30 juin 2005, John et a. c/ Allemagne, n° 46720/99, §117 : RDP 2006. 815, note SURREL. 792. STRUILLOU (J.-F
.), Protection
de la propriété privé
e immobilière et
prérogatives
de
pu
issance publique, th.
Nantes
,
Préf. R. HOSTIOU, L'Harmattan,
1996
,
p
.
439
. 793. CEDH, 8 juill. 1986, Lithgow et a. c/ Royaume-Uni, n° 9006
/80
, §120, concernant des nationalisations. 794. La cour précise expressément que : « l'obligation d'indemniser découle implicitement de l'article 1 du Protocole 1 pris dans son ensemble » : CEDH, 8 juill. 1986, Lithgow et a. c/ Royaume-Uni, n° 9006/80, §109. 795. CEDH, 23 sept. 1982, Sporrong et Lönnroth c/ Suède, n° 7151/75 et 7152/75 ; CJCE, 30 juillet 1996, Bosphorus, aff. C-84/95, Rec. I. 3953, point 21 ; CEDH, 8 juill. 2008, Turgut et a. c/ Turquie, n° 1411/03, §92. 790 190 Les justifications juridiques des atteintes publiques à la propriété privée immobilière de l'article 1er du Protocole n°1. Il y a trois situations possibles auxquelle la Cour peut être confrontée. 259. Premièrement, les instances de la Convention peuvent être saisies d'une affaire dans laquelle la mesure attentatoire à la propriété concernée est licite, c'est-à-dire qu'elle respecte les conditions énoncées dans l'article 1er du Protocole n°1. Dans ces conditions, l'interprétation est simple, car même s'il y a une atteinte manifeste au droit de propriété privée immobilière, la Cour ne peut pas conclure à une violation des stipulations de la Convention européenne dans l'hypothèse où l'atteinte provoquée est justifiée et proportionnée au but poursuivi par les autorités. Par conséquent, le propriétaire lésé ne reçoit aucune indemnisation réparatrice car les autorités n'ont pas enfreint la Convention. En revanche, si la mesure est de nature privative, c'est-à-dire qu'elle a pour effet de priver le propriétaire de son bien, il percevra une indemnité destinée à compenser la perte de l'objet de propriété. Autrement dit, il est tout à fait possible de priver un individu de sa propriété, sous réserve de l'indemniser. Les atteintes publiques à la propriété privée immobilière 1er et une réparatrice ré
sultant
des pré
judi
ces
subi
s
sur
le fond
ement
de l'article 41 de la Convention. 261. Troisièmement, les instances de la Convention peuvent être saisies d'une affaire dans laquelle la mesure attentatoire à la propriété privée est illicite au sens de l'article 1er du Protocole n°1. Sa démarche est la suivante : la Cour conclut à une violation des stipulations de l'article 1er en raison de l'existence d'une atteinte au principe de légalité qui permet au requérant de faire jouer l'article 41 de la Convention relatif à la satisfaction équitable. Bien que la réparation du préjudice matériel en argent semble être la forme la plus pratiquée par la Cour, en cas de privation illicite, le juge tend à privilégier le mécanisme de la restitutio in integrum qui a moins pour mérite d'exister auprès des instances de la Cour européenne (v. infra). 262. Certains auteurs ont constaté l'émergence du caractère « économique » du droit de propriété797. En effet, l'accroissement des voies de recours et la jurisprudence de plus en plus favorable aux requérants ont eu pour effet d'ouvrir une brèche dans les actions portées devant la Cour européenne qui présentent désormais un aspect indemnitaire798. Pour ces raisons, la doctrine évoque la « mercantilisation » excessive du contentieux de la réparation européenne799. Il est vrai que le contentieux européen a fortement évolué depuis ces trente dernières années. À titre d'illustration, la Cour européenne à ses débuts n'indemnisait que la violation du droit de propriété. Depuis, elle tend à instaurer un système de réparation quasi-intégrale du préjudice subi notamment en permettant la réparation du préjudice matériel et moral subi les requérants (v. infra). L'autre particularité de l'approche européenne est d'avoir créée une troisième catégorie de norme de protection des biens, celle de l'atteinte « à la substance » du droit de propriété, pour laquelle on peut aussi s'interroger sur l'intérêt de son existence. 797. FLAUSS (J.-F.), « Le contentieux de la réparation devant la Cour européenne des droits de l'homme : eldorado pour les victimes et fonds de commerce pour les conseils? », in Mél. SORTAIS, Bruylant, 2002, p. 179. 798. FLAUSS (J.-F.), « La banalisation du contentieux indemnitaire devant la Cour Européenne des Droits de l'Homme » : RTDH 1996, p. 93- 100. 799. FLAUSS (J.-F.), « Réquisitoire contre la mercantilisation excessive du contentieux de la réparation devant la Cour européenne des droits de l'homme », à propos de l'arrêt Beyeler c./ Italie du 28 mai 2002, D. 2003, p. 227. Les justifications juridiques des atteintes publiques à la propriété privée immobilière C) LA TROISIEME CATEGORIE DE NORMES « D'ORDRE GENERAL » DEDUITE DE L'ALINEA 1ER : L'ATTEINTE A LA SUBSTANCE DU DROIT DE PROPRIETE
263
.
La notion prétorienne d'atteinte « à la substance ». Pour rappel, c'est dans la décision Sporrong & Lönnroth c/ Suède800 que la cour a jugé utile de créer une troisième catégorie de norme distincte de la privation de propriété et de la réglementation de l'usage des biens qui sont expressément mentionnées à l'article 1er du Protocole n°1. Bien qu'il s'agisse d'une création prétorienne, elle choisit d'énumérer cette catégorie au premier rang, c'est-à-dire avant les deux catégories d'atteintes qui figurent expressément à l'article 1er. La jurisprudence européenne apporte ainsi une interprétation extensive de l'article 1er en créant une catégorie prétorienne d'atteinte à la propriété connue aussi sous le nom « d'atteinte à la substance » du droit de propriété. Selon elle, cette catégorie prétorienne inspirée dudit article est une norme « d'ordre général » qui découle du « principe du respect de la propriété »801. L'ingérence des autorités sur le bien est susceptible de provoquer une atteinte à la « substance » au sens de l'article 1er du Protocole n°1802, dès lors qu'elle restreint les attributs du propriétaire au point de vider le droit de propriété de sa substance, sans pour autant le priver de son bien803. Autrement dit, le bien est toujours en sa possession mais le propriétaire ne peut plus ni en jouir, ni en disposer de manière optimale. Cette troisième catégorie de norme n'est pas sans rappeler la notion « d'atteinte aux conditions d'exercice du droit de propriété » reconnue en droit interne à l'article 2 de la Déclaration de 1789. D'ailleurs, comme en droit français, la mesure attentatoire doit elle aussi être justifiée au regard de l'intérêt général ou d'une cause d'utilité publique et être proportionnée au but poursuivi pour ne pas être sanctionnée804. La création d'une troisième catégorie de norme d'origine prétorienne est critiquable quant à son utilité en droit car, peu importe le degré de gravité de l'atteinte, la distinction limitation/privation de propriété suffit à 800. CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède, n° 7151/75, série A n° 52, paragraphe 63 ;. SUDRE (F.), « Le ''droit au respect de ses biens'' au sens de la Convention européenne des droits de l'homme », in La protection du droit de propriété par la Cour européenne des droits de l'homme, IDHAE, Bruylant, Paris, 26 mai 2004, p. 11. 802. CEDH, 23 avr. 1987, Erkner et Hofauer c/ Autriche, n° 9616/81, §72 ; CEDH, 12 oct. 2004, Kjartan Asmundsson c/ Islande, n° 60669/00, §40 : AJDA 2005. 541, chron. FLAUSS ; CEDH, 29 janv. 2013, Zolotas c/ Grèce n° 2, n° 66610/09, §47 : RTD civ. 2013. 336, obs. MARGUÉNAUD ; CEDH, décis., 7 mai 2013, Koufaki et Adery c/ Grèce, n° 57665/12, §34.
803. « Il échet de rappeler d'abord que les autorités suédoises n'ont pas procédé à l'expropriation des immeubles des requérants. Ces derniers n'ont donc à aucun moment été formellement « privés de leur propriété » : ils pouvaient user de leur bien, le vendre, le léguer, le donner ou l'hypothéquer ». CEDH, 23 sept. 1982, Sporrong et Lönnroth c/ Suède, n° 7151/75 et 7152/75, §62. Par dix voix contre neuf, la cour estime qu'il y a violation de l'article 1er du Protocole additionnel n° 1 de la Convention européenne des droits de l'homme. 804. « La Cour doit rechercher si un juste équilibre a été maintenu entre les exigences de l'intérêt général de la communauté et les impératifs de la sauvegarde des droits fondamentaux de l'individu » : CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède
n° 7151/75, série A n° 52, paragraphe 89. 801 193
Les atteintes publiques à la propriété privée immobilière classifier l'atteinte dans l'une ou l'autre de ces catégories sans nécessité de recourir à la notion d'atteinte à la substance du droit de propriété qui, d'ailleurs, même si elle est intéressante, vient compliquer l'approche de la notion européenne de propriété privée. 264. Par ailleurs, la décision Sporrong & Lönnroth c/ Suède est une intéressante sur le plan intellectuel et juridique car elle met en exergue la marge d'interprétation des stipulations de la Convention par la Cour européenne qui exclut la privation alors que les requérants sont frappés d'une mesure expresse d'expropriation. Son raisonnement est de dire que si le bien a perdu de sa substance, en revanche, le droit en cause n'a pas disparu excluant ainsi la privation de propriété. Précisément, cette affaire concerne des terrains privés frappés par deux mesures distinctes prises par les autorités suédoises : un permis d'exproprier et une mesure d'interdiction de construire. Certaines de ces mesures sont effectives depuis plus d'une vingtaine d'années affectant manifestement les conditions d'exercice du droit de propriété des personnes concernées, mais comme elle l'explique : « si les ventes d'immeubles touchés à Stockholm par des permis d'exproprier et des interdictions de construire ont été rendues plus malaisées, la possibilité de vendre a subsisté ». En d'autres termes, selon elle, les mesures concernées n'empêchaient ni le propriétaire de disposer de son bien ni de revendre son bien, ne permettant pas de caractériser la privation de propriété. Pour autant, il faut être pragmatique car rares sont les acquéreurs potentiels d'un pareil bien. En effet, quels sont les acquéreurs qui souhaiteraient investir dans l'achat d'un terrain qu'ils ne sont pas sûrs de conserver en raison de l'existence d'un permis d'exproprier et sur lequel ils ne peuvent pas construire? Enfin, elle explique que la collectivité n'a pas procédé aux indemnisations nécessaires au transfert définitif du bien empêchant également la caractérisation de la privation. La réparation accordée aux requérants sera a fortiori moins importante que ce qu'elle aurait été si la cour avait qualifié l'atteinte de privation de propriété805. 265. Par ailleurs, toujours dans l'affaire Sporrong & Lönnroth c/ Suède, les requérants se plaignent de n'avoir perçu aucune indemnité de la part des autorités suédoises résultant de la période pendant laquelle leurs biens a fait l'objet de ces mesures. Pour répondre aux requérants, la Cour adopte un raisonnement juridique intéressant où elle choisit de distinguer les deux mesures (interdiction de construire et permis d'exproprier) qui, selon elle, ont des effets différents sur la propriété et qui, par conséquent, vont aboutir à une interprétation différente de l'article 1er du Protocole n°1. Premièrement, concernant l'autorisation d'expropriation, la Cour relève l'absence de privation de propriété au sens de l'article 1er du Protocole n° 1. Selon elle, 805. V. infra, développement sur la satisfaction équitable 194 Les justifications juridiques des atteintes publiques à la propriété privée immobilière l'ingérence des autorités est justifiée car le but du projet est de permettre le développement de l'aménagement urbain, mais elle est disproportionnée en raison de l'existence d'un permis qui rend le droit de propri
été
des requérants à la fois « précaire et annulable
». Cette interprétation est rationnelle dans la mesure où l'expropriation n'avait pas encore été réalisée sur les terrains. Il ne s'agissait là encore que d'une autorisation d'exproprier mais là où la Cour aurait pu considérer qu'il s'agissait d'une atteinte à la réglementation des biens, elle décide de constater une « atteinte à la substance » sur le fondement de l'alinéa 1er dudit article. Deuxièmement, concernant la mesure d'interdiction de construire, la Cour la qualifie de mesure qui réglemente l'usage des biens ouvrant la possibilité aux requérants d'obtenir une réparation sur le fondement de l'alinéa 2nd dudit article 1er du Protocole n° 1. Cependant, elle note que l'ingérence de l'État est justifiée et proportionnée au but poursuivi, ce qui aurait dû conduire à l'exclusion de l'application de l'article premier. Pourtant, sa démarche est d'autant plus surprenante qu'après avoir distingué les deux mesures, la Cour décide d'analyser leurs effets combinés. Prises séparément, l'article 1er ne s'applique pas, mais, prises ensemble, les bienfaits de l'article 1er s'appliquent en raison d'une atteinte à la « substance » du droit de propriété. Elle justifie son raisonnement comme suit : « Les deux séries de mesures ont créé une situation qui a rompu le juste équilibre devant régner entre la sauvegarde du droit de propriété et les exigences de l'intérêt général : la succession Sporrong et Mme Lönnroth ont supporté une charge spéciale et exorbitante que seules auraient pu rendre légitime la possibilité de réclamer l'abrégement des délais ou celle de demander réparation. Or, la législation suédoise excluait à l'époque eilles possibilités ; elle exclut toujours la seconde d'entre elles »806 266. On constate que l'atteinte à la substance ne sera examinée qu'en dernier par la Cour c'est-àdire après avoir vérifié que la mesure attentatoire ne constitue ni une privation de propriété, ni une réglementation de l'usage des biens. Faut-il en conclure que la distinction limitation/privation de propriété prévue par les textes n'est pas suffisante? 267. L'atteinte à la substance, une notion superflue? La doctrine a beaucoup critiqué cette troisième catégorie de norme prétorienne déduite de l'article 1er du Protocole n°1 ne comprenant pas l'utilité d'une telle création807. Pourtant, le juge explique qu'il se réfugie derrière cette 806. CEDH, 23 sept. 1982, Affaire Sporrong & Lönnroth c/ Suède, n° 7151/75, série A n° 52, paragraphe 73. Les atteintes publiques à la propriété privée immobilière troisième catégorie de norme lorsque la situation du requérant ne lui permet pas de bénéficier de l'une des deux autres catégories mentionnées dans ledit article 808. Cette explication est cohérente mais en réalité la distinction privation/limitation suffit en pratique, preuve en est de la législation française qui applique cette distinction traditionnelle sans avoir le besoin de recourir à la notion d'atteinte à la substance du droit de propriété quand l'une ou l'autre ne s'applique pas. Cette manière à la française de voir les choses est conforme à l'analyse du Professeur SERMET qui estime que si l'atteinte provoquée par les autorités n'est pas constitutive d'une privation de propriété, elle est forcément constitutive d'une réglementation de l'usage des biens, ce qui ne signifie pas qu'elle sera automatiquement indemnisée sur le fondement de l'article 1er du protocole n°1809. D'ailleurs, cette affirmation de M. SERMET se vérifie au regard de l'analyse des décisions rendues par la Cour européenne car si l'on reprend par exemple l'affaire Sporrong & Lönnroth c/ Suède, l'on remarque en effet que le permis d'exproprier n'affectait pas en tant que tel le droit des propriétaires de disposer et de jouir du bien. Pour autant, la mesure d'interdiction de construire n'aurait pas été prise par les autorités sans l'existence dudit permis d'exproprier. Manifestement, un permis d'exproprier implique toujours nécessairement l'adoption corrélative d'une mesure d'interdiction de construire sur les terrains visés, ce qui signifie par extension que le permis d'exproprier est une mesure de réglementation de l'usage du bien et que, par conséquent, il peut b ficier de la protection de l'article 1er. En conclusion, la création d'une telle catégorie est-elle réellement utile en droit? Rien n'est moins sûr Les deux catégories issues de l'article 1er semblent suffisantes en tout point. Mais en réalité, cette troisième catégorie est inutile, sauf si l'on considère qu'elle constitue une catégorie « fourre-tout » qui s'appliquerait automatiquement lorsque les deux autres normes auraient été écartées. Cette réalité a été démentie lorsque dans l'affaire Katte Klitsche de la Grange c/ Italie, une atteinte « à la substance » a été caractérisée par la Cour sans qu'elle n'emporte violation des stipulations de la Convention européenne des droits de l'homme au sens dudit article 1er du Protocole n°1810. Quoiqu'il en soit, si l'on se réfère à cette analyse, l'atteinte à la substance n'a rien d'une catégorie supplémentaire. 808. CEDH, gr. ch., 5 janv. 2000, Beyeler c/ Italie, n° 33202/96, §106 : AJDA. 526, chron. FLAUSS ; RTDH 2003. 223, obs. TIGROUDJA. 809. SERMET (L.), La Convention européenne des droits de l'homme et le droit de propriété, Dossier sur les droits de l'homme, éd. du Conseil de l'Europe, n° 11 rév, 1998, p. 29-30. 810. CEDH, 27 oct. 1994, Katte Klitsche de la Grange c/ Italie, n° 12539/86. 811. Voici quelques exemples : A propos d'un requérant qui ne peut accéder à sa propriété perdant toute possibilité de jouir et d'user de celle-ci (CEDH, 24 juin 2004, Dogan et a. c/ Turquie, n° 8803/02, §143 : JCP 2004. I. 161, chron. SUDRE ; CEDH, gr. ch., 16 juin 2015, Chiragov et a. c/ Arménie, n° 13216/05, §201) ; 196 Les justifications juridiques des atteintes publiques à la propriété privée immobilière 268
. La création d'une catégorie de norme prétorienne qui aurait abouti à la réparation automatique des atteintes publiques à la propriété privée aurait ravi les intéressés car elle aurait signifié que les propriétaires bénéficiaient automatiquement de la protection de l'article 1er, que l'ingérence ait été justifiée ou non. Mais ce raisonnement est très dangereux à la fois pour la sécurité juridique et les finances publiques car, face à l'hypothèse d'obtenir avec certitude une réparation du préjudice, tous les propriétaires frappés d'une mesure attentatoire n'hésiteraient plus avant de saisir les juridictions européennes, ce qui, d'une part, ne ferait pas baisser le nombre recours en justice qui ne cesse d'augmenter chaque année812. Ensuite, l'éventualité d'une indemnisation automatique multiplierait considérablement le coût des opérations de construction au détriment des deniers publics susceptible de freiner l'administration dans la poursuite de ses actions d'intérêt général. Enfin, cette déduction préjudicierait au droit à un procès équitable garanti par l'article 6§1 de la Convention européenne des droits de l'homme car les parties pourraient présumer par avance le prononcé de la décision. 269. L'atteinte à la substance du droit de propriété n'est pas sans rappeler la catégorie interne d'atteinte aux conditions d'exercice qui vide le droit de propriété de sa substance (v. supra). Nul doute que cette catégorie est une inspiration de la jurisprudence européenne. Les atteintes publiques à la propriété privée immobilière lorsqu'une difficulté de qualification se présente et il faut dire qu'elle est souvent reconnue par la Cour815. Par exemple, la Cour a caractérisé l'atteinte à la substance du droit de propriété dans une affaire où l'administration refuse d'exécuter une décision de justice rendue par la Cour des comptes qui constatait l'existence d'une créance en faveur du requérant816 ; elle l'a encore caractérisé dans une affaire où l'administration refuse d'exécuter une décision de justice l'enjoignant à démolir un immeuble ne respectant pas la réglementation spécifique aux jours et aux vues817. Pour reprendre les explications de Francis Sudre : « L'intérêt du juge européen de recourir de manière préférentielle à une norme purement prétorienne, dont il définit seul la portée, lui permet de borner singulièrement le pouvoir d'appréciation des États dans la détermination concrète des limitations au droit de propriété »818. En d'autres termes, cette catégorie prétorienne permet au juge européen de garder une marge de manoeuvre dans l'appréciation des atteintes publiques à la propriété, qu'il peut choisir de caractériser ou non en fonction des cas sur lesquels il est saisi. Nonobstant le caractère flou et aléatoire de cette troisième catégorie de norme, l'on peut aisément « avancer sans grand risque d'erreur que la première catégorie de norme de l'article 1er du Protocole n° 1 n'a pas encore dévoilé toute ses ressources »819, faisant de cette catégorie un atout considérable du dispositif juridique européen de protection des biens, en particulier pour obtenir réparation des préjudices résultant de l'ingérence des autorités. Mais ce n'est pas tout car le s européen revêt d'autres particularités par rapport au droit français. §3/ Les particularités du système européen de réparation
270. Le système européen de réparation permet aux instances de la Convention de mettre un terme à la situation préjudiciable subie par les requérants qui font l'objet d'une mesure attentatoire au droit de propriété. Pour le dire autrement, les requérants qui peuvent invoquer le champ de protection de l'article 1er du Protocole n°1 sont ceux qui se prévalent d'une mesure de privation, 815. CEDH, 27 oct. 1994, Katte Klitsche de la Grange c/ Italie, n° 12539/86 ; CEDH, 9 déc. 1994, Raffineries grecques Stran et Stratis Andreadis c/ Grèce, n° 13427/87. 816. CEDH, 28 mars 2000, Georgiadis c/ Grèce. 817. CEDH, 20 juill
. 2000
, Antonetto c/ Italie, JCP
G 2001
, I 291, §26, chron. SUDRE (F
.). 818. SUDRE (F.), « Le ''droit au respect de ses biens'' au sens de la Convention européenne des droits de l'homme », in La protection du droit de propriété par la Cour européenne des droits de l'homme, IDHAE, Bruylant, Paris, 26 mai 2004, p. 13. 819. SUDRE (F.), « Le ''droit au respect de ses biens'' au sens de la Convention européenne des droits de l'homme », in La protection du droit de propriété par la Cour européenne des droits de l'homme, IDHAE, Bruylant, Paris, 26 mai 2004, p. 14.
| 49,391
|
44/hal.univ-lorraine.fr-tel-01761445-document.txt_11
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,555
| 14,698
|
Le traitement 302. En ce qui concerne le système de traitement et la conservation des données dans un fichier, la CNIL a été la première à évoquer ces deux notions, formulant son propos à travers certaines de leurs manifestations et considérant que « lorsque les images saisies par la caméra de vidéosurveillance sont, lors de leur collecte, de leur transfert aux fins d'affichage sur les moniteurs de visualisation, de leur réception, de leur stockage et de leur consultation, numérisées, les dispositions de fond sur les droits des personnes et le obligations pesant sur les responsables des traitements que prévoit la loi du 6 janvier 1978 ainsi que [] les dispositions fixées [] par la loi du 6 janvier 1978 sur les formalités préalables à la mise en oeuvre de traitements automatisés [] sont applicables » 1206. Une lecture attentive permet de constater que la CNIL semble circonscrire ses développements à l'image « numérisée ». En réalité, la lecture du considérant précédent permet de mieux saisir l'intention de la CNIL. Il s'agissait non pas de restreindre l'application des dispositions légales citées au champ des images au format numérique, mais au contraire de déclarer ces dispositions également applicables aux images numériques. En effet, le but de la délibération dont sont extraits les considérants cités était d'anticiper le remplacement à moyen terme des systèmes sous forme analogique par des systèmes de captation d'images au format numérique : « considérant que, selon les explications fournies à la commission par des constructeurs de 1204. Délibération no 94-056 du 21 juin 1994 portant adoption d'une recommandation sur les dispositifs de vidéosurveillance mis en oeuvre dans les lieux publics et les lieux recevant le public. 1205. V. not. CNIL, Voix, image et protection des données personnelles, documentation française, 1996. ; Directive 95/46/CE du Parlement européen et du Conseil du 24 octobre 1995 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, transposé par la loi no 2004-801 du 6 août 2004 relative à la protection des personnes physiques à l'égard des traitements de données à caractère personnel et modifiant la loi no 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés 6 août 2004. 1206. Cons. L'IMAGE ET LE PROCÈS PÉNAL
systèmes de vidéosurveillance et des personnalités scientifiques, le traitement numérique de l'image est appelé à remplacer le procédé analogique, dans un délai de cinq ans environ » 1207. Le sixième considérant de la délibération vient confirmer ce raisonnement, « lorsque les techniques de numérisation de l'image ne sont à aucun moment utilisées, peuvent néanmoins être invoquées, selon les caractéristiques techniques mises en place, les dispositions de fond de cette loi » 1208. 303. En outre, il convient, de nouveau, de se rapprocher de la directive du 24 octobre 1995 du Parlement et du Conseil européen, qui présente un intérêt théorique mais également pratique notable. En témoigne l'avis rendu par le Conseil d'État le 24 mai 2011 1209 qui fonde son raisonnement sur ce texte. Il ressort de cet avis que l'enregistrement de vidéoprotection est assujetti aux obligations de la loi de 1978 si, d'une part, les images font l'objet d'un enregistrement et d'une conservation 1210 (non d'un simple visionnage) et si, d'autre part, les personnes ayant vocation à accéder au système sont en mesure d'identifier les personnes filmées. Le Conseil d'État ajoute, en substance, que l'identification des personnes est considérée comme possible dès lors que le système est mis en oeuvre dans des lieux habituellement fréquentés par des personnes dont une partie significative est connue du responsable du système de vidéoprotection ou des personnes ayant vocation à visionner les images enregistrées 1211. Sont notamment concernés par la loi « informatique et libertés » de 1978, donc par l'obligation de déclaration à la CNIL, les établissements scolaires 1212 et hospitaliers, les locaux professionnels ou encore les établissements pénitentiaires. De même, une co é qui déciderait d'installer un système de vidéoprotection avec enregistrement devra se conformer à la loi du 6 janvier 1978 puisqu'il sera possible d'identifier les personnes filmées étant donné qu'elles résident dans l'immeuble. Il est ici nécessaire de remarquer que si une partie éventuellement publique de l'espace de 1207. Cons. 4, Délibération no 94-056 du 21 juin 1994 portant adoption d'une recommandation sur les dispositifs de vidéosurveillance mis en oeuvre dans les lieux publics et les lieux recevant le public. 1208. Cons. 6, ibid. 1209. CE, Section de l'intérieur, 24 mai 2011, avis no 385.125. 1210. § 2. Les obligations supplémentaires liées à l'enregistrement de l'image travail existe, le système sera alors soumis à la loi du 6 janvier 1978, conformément à l'article L.251-1 du code de la sécurité. À l'inverse si des enregistrements de vidéoprotection étaient réalisés dans les locaux non ouverts au public, les dispositions de la loi du 6 janvier 1978 trouveraient à s'appliquer à condition de réunir plusieurs critères. Il doit s'agir d'une donnée personnelle, il faut recourir à un système automatique ou non de traitement de données et ces données doivent être contenues ou appelées à figurer dans des fichiers. 304. Si l'applicabilité de la loi du 6 janvier 1978 repose sur des critères précis, son champ d'application est également parfaitement déterminé et repose, une fois n'est pas coutume, sur la distinction entre lieux publics et lieux privés.
2. Le champ d'application
305. Le champ d'application de la loi de 1978 est différent selon qu'il s'agit d'un lieu public (a) ou d'un lieu privé (b). a. Les lieux publics 306. En ce qui concerne les lieux publics, le législateur a explicitement déterminé le champ d'application de la loi de 1978. Les articles L. 251-2 et L. 251-3 du code de la sécurité intérieure disposent que les enregistrements effectués par des systèmes de vidéoprotection installés dans des lieux publics ou ouverts au public sont soumis à la loi « informatique et libertés ». Les « exigences fixées aux articles L. 251-2 et L. 251-3 » concernent précisément la « voie publique » 1213 et les « lieux et établissements ouverts au public » 1214. Une lecture attentive de l'article L. 253-2 révèle que le champ de compétence de la CNIL est plus large que celui que semble délimiter l'article L. 251-1. « La [CNIL] peut [] exercer un contrôle visant à s'assurer que le système est utilisé conformément à son autorisation et, selon le régime juridique dont le système relève, aux dispositions du présent titre ou à celles de la loi [du 6 janvier 1978] ». Ainsi, elle peut effectuer de sa propre initiative ou sur demande, un contrôle, y compris sur les installations ne relevant pas de la loi du 6 janvier 1978 mais dont les enregistrements portent néanmoins sur un lieu public. 307. Par ailleurs, comme évoqué précédemment, il convient de différencier les enregistre- ments que l'on pourrait qualifier de « simples », où seules les dispositions du code de la sécurité intérieure sont alors applicables, et les enregistrements où les images sont conservées afin d'être utilisées dans des traitements automatisés ou contenus dans des fichiers structurés selon 1213. Articles L. 251-2 alinéa 1 et L. 251-3 alinéa 1. 1214. Article L. 251-3 alinéa 2. L'IMAGE ET LE PROCÈS PÉNAL
des critères permettant d'identifier, directement ou indirectement, des personnes physiques 1215. Il existe donc deux types de vidéoprotection, la vidéoprotection « simple » et la vidéoprotection « d'identification » 1216. En pratique, cette dernière concerne deux hypothèses : prendre l'image d'une personne et la comparer avec un fichier de personnes physiques 1217 ou utiliser un logiciel informatique d'identification permettant la réalisation d'un « morphing de rapprochement » 1218 et cela de manière automatique. On parlera en ce domaine de vidéoprotection « intelligente » 1219. La CNIL va jouer un rôle déterminant dans le cadre de la vidéoprotection « d'identification », notamment par morphing, car il s'agit d'une technique faisant appel à la biométrie 1220. Or, tout dispositif recourant à la biométrie ne fait pas l'objet d'une déclaration à la CNIL mais d'une autorisation de cette dernière 1221. 308. S'agissant des lieux privés, la relative complexité de la situation tient à la difficulté qui peut survenir à tracer avec précision la frontière entre lieu privé et lieu public. b. Les lieux privés 309. La lecture des articles L. 251-2 et L. 251-3 laisse clairement comprendre que le législateur ne prévoit l'application de la loi de 1978 que dans le cadre d'enregistrement de vidéoprotection de la voie publique et des lieux publics, excluant a priori les lieux privés. Toutefois, le code de la sécurité intérieure n'a pour vocation que de dresser le cadre juridique de la vidéoprotection des lieux publics. Il n'a pas pour objet de s'intéresser aux lieux privés. Il ne faut donc pas y voir une exclusion de l'application de la loi de 1978 dans les lieux privés, mais le simple fait que le code de la sécurité intérieure ne s'intéresse qu'aux lieux publics et ouverts au public et qu'il ne traite pas de l'application de ces dispositions dans le cadre des 1215. Voir à ce sujet
, G. BENESTY, « L'établissement des systèmes de vidéoprotection par les collectivités territoriales après la
LOPPSI
2 », AJ Collectivités territoriales 2011, p. 322. 1216. V. not., A. BENSOUSSAN, « La vidéoprotection : un nouveau cadre fondé sur la corégulation », Droit des technologies avancées, Blog expert le Figaro 12 mars 2012. 1217.
Quelque soit le type de fichier, y compris un trombinoscope.
1218. Terme
qui recouvre un procédé qui va comparer différents traits caractéristiques d'un visage avec ceux de visages présents dans une base de données
, A. BENSOUSSAN, « La vidéoprotection : un nouveau cadre fondé sur la corégulation », Droit des technologies avancées, Blog expert le Figaro 12 mars 2012. 1219. M INISTÈRE DE L' INTÉRIEUR, DE L' OUTRE MER ET DES COLLECTIVITÉS TERRITORIALES, Note technique : La vidéo-protection intelligente, juillet 2008. 1220. Selon la CNIL, il s'agit de « l
'ensemble des techniques informatiques permettant d'identifier un individu à partir des ses caractéristiques physiques, biologiques, voire comportementales. Les données biométriques sont des données à caractère personnel car elles permettent d'identifier une personne. Les données Biométriques ont la particularité d'être uniques et permanentes. » CNIL, 27e rapport d'activité, 2006, p. 13. Elles permettent de ce fait le « le traçage » des individus et leur identification certaine. Voir également, Jean-Christophe GALLOUX, « Droits et libertés corporels », D. 2012, p 308. 1221. Article 25, Loi no 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés. § 2. Les obligations supplémentaires
liées
à
l
'enregistrement
de
l'image lieux privés.
Ce
n'est,
de fait, pas en son sein qu'il faut rechercher l'applicabilité de la loi de 1978 dans les lieux privés
.
Pour cela
, il convient de se reporter au
texte
lui-même. La loi « informatique et libertés » trouve à s'appliquer à tout système utilisant des données personnelles, y compris dans le cas d'un dispositif de vidéoprotection réalisant des enregistrements dans un lieu privé. Cette solution se dégage d'une lecture a contrario du premier alinea de l'article 2 de la loi. En délimitant précisément l'exclusion de son application, « à l'exception des traitements mis en oeuvre pour l'exercice d'activités exclusivement personnelles » 1222, la loi laisse entendre qu'elle s'applique donc à l'ensemble des autres hypothèses, et de fait, également au cas de vidéoprotection dans les lieux privés. Les dispositions de la loi « informatique et libertés » seront donc notamment applicables sur le lieu de travail ou encore dans les établissement scolaires. 310. L'exclusion concerne en réalité les systèmes de vidéoprotection installés par un parti- culier à son domicile 1223, sans aucune visibilité sur la voie publique. Cette dernière remarque amène deux précisions. D'une part, si un dispositif que l'on pourrait qualifier de « privé » devait filmer la voie publique, les dispositions contenues dans le code de la sécurité intérieure et précédemment évoquées seraient applicables, notamment l'obligation d'autorisation. D'autre part, s'agissant de l'application de la loi « informatique et libertés » en cas d'enregistrement de la voie publique par un système privé, censé n'enregistrer qu'un lieu privé, la Cour de justice de l'Union européenne a rendu, le 11 décembre 2014, un arrêt particulièrement important 1224. En l'espèce, suite à des actes répétés de dégradation sur son domicile, un homme avait installé un système privé de vidéoprotection filmant ce domicile (lieu privé), mais également en partie la voie publique 1225. À la suite d'une nouvelle dégradation de son habitation, M. Rynes était en mesure de fournir aux forces de l'ordre un enregistrement qui permettait d'identifier deux suspects. L'un d'eux contestait la légalité du traitement des données enregistrées par la caméra de vidéo. L'office tchèque pour la protection des données à caractère personnel constatait la violation de la réglementation et infligeait une amende à M. L'IMAGE ET LE PROCÈS PÉNAL
administrative
tchèque aux fins de savoir si l'enregistrement effectué par M. Rynes était exclu du champ d'application de la directive 95/46/CE puisque effectué par une personne physique pour l'exercice d'activités exclusivement personnelles ou domestiques 1226. Cette disposition précédemment étudiée est apparue comme déterminante dans la compréhension de la loi « informatique et libertés ». Cela rend le présent arrêt, notamment l'interprétation de la Cour de justice de l'Union européenne, particulièrement éclairant. Rappelant en premier lieu la notion de « données à caractère personnel », la Cour en venait à considérer que « l'image d'une personne enregistrée par une caméra constitue une donnée à caractère personnel, car elle permet d'identifier la personne concernée » 1227. La Cour poursuivait en indiquant que « la vidéosurveillance comprenant l'enregistrement et le stockage de données à caractère personnel relève du champ d'application de la directive, puisqu'elle constitue un traitement automatisé de ces données. [] l'exemption prévue [] doit être interprétée de manière stricte. Ainsi une vidéosurveillance qui s'étend à l'espace public et qui, de ce fait, est dirigée en dehors de la sphère privée de la personne traitant les données ne peut pas être considérée comme "une activité exclusivement personnelle ou domestique" » 1228. Néanmoins, la Cour précisait in fine que la juridiction nationale devait prendre en compte l'intérêt légitime du responsable du traitement à protéger ses biens, sa santé et sa vie ainsi que ceux de sa famille. De même, les États membres peuvent limiter la portée des obligations et droits prévus par la directive si cela est nécessaire pour sauvegarder la prévention, la recherche la détection et la poursuite d' fractions pénales ou la protection des droits et libertés d'autrui. Ces exceptions permettent d'effectuer un traitement de données à caractère personnel sans recueillir le consentement de la personne concernée 1229. Toutefois, ces exceptions ne semblent pas s'adresser à un système « privé », mis en place par un particulier pour vidéoprotéger son domicile, comme en l'espèce 1230. Cette décision est en adéquation avec les textes précédemment évoqués, qu'il s'agisse de 1226. Cons. 12, Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données. 1227. §22, CJUE, 4e chambre, 11 décembre 2014, Affaire C-212/13 Frantisek Rynes c. 216 § 2. Les obligations supplémentaires liées à l'enregistrement de l'image la directive 95/46 1231 mais également de l'article 9 de la Convention du 28 janvier 1981 1232 ainsi que l'article 26 de la loi « informatique
et
libert
és » 1233. En définitive, dès lors que la vidéoprotection privée sort du champ géographique strictement privé, y compris de manière incidente ou résiduelle, elle perd l'attribut d'enregistrement privé et ce, quand bien même le champ public n'aurait pas été l'objet principal ou intentionnel de l'enregistrement. 311. L'image, plus exactement l'image d'une personne, est donc une donnée personnelle potentiellement nominative 1234. Or, tout à chacun peut l'observer, l'image d'une personne peut révéler une somme importante d'informations sur cette dernière, son apparence physique, vestimentaire, ses expressions ou fréquentations, etc. Une interrogation peut alors naître à la lecture de l'article 8 de la loi du 6 janvier 1978 qui dispose qu' « il est interdit de collecter ou de traiter des données à caractère personnel qui font apparaître, directement ou indirectement, les origines raciales ou ethniques, les opinions politiques, philosophiques ou religieuses ou l'appartenance syndicale des personnes, ou qui sont relatives à la santé ou à la vie sexuelle de celles-ci ». Comment nier que la photographie d'une personne révèle les origines « raciales », des opinions religieuses, syndicales ou politiques par le port de signes distinctifs 1235? Cependant, le 4o du II de l'article 8 précité vient apporter une dérogation à l'interdiction posée pour « les traitements portant sur des données à caractère personnel rendues publiques par la personne concernée ». Réapparaît alors la distinction qui soutient l'ensemble du régime de la vidéo protection, la distinction entre les espaces publics et les espaces privés. L'image d'une personne ne peut délivrer des informations « sensibles » qu'à condition que cette personne expose ces informations. Faut-il alors considérer que dès lors qu'une personne s'expose publiquement, sous-entendu, dans un lieu public ou ouvert au public, en laissant apparaître de telles informations, l'enregistrement d'images la représentant par un système de vidéoprotection soumis à la loi de 1978, peut être autorisé, y compris sur des données à caractère « sensibles »? A contrario, dès lors qu'un système de vidéoprotection identique capterait des images semblables mais dans un lieu privé, il lui serait alors interdit de capter des images contenant de telles informations. Ce raisonnement n'est guère satisfaisant. L'IMAGE ET LE PROCÈS PÉNAL
l'appartenance syndicale serait réalisé? De même, se pose le problème de l'apparence physique de chaque personne. Le simple fait d'user de sa liberté d'aller et venir amène à divulguer une donnée sensible, par exemple ethnique, qui ne peut être masquée. Enfin, il ne faut pas oublier que « toute personne a, sur son image et l'utilisation qui en est faite, un droit exclusif » 1236. En réalité, on touche ici au reproche formulé par Mme Cadoux à la loi de 1995, à savoir l'absence de prise en compte de la spécificité des images 1237. En effet, l'image « livre une quantité d'informations excédentaires. L'image est globale et ne fait pas le détail, elle ne permet pas de sélectionner les informations strictement utiles » 1238. Ces propos rejoignent ceux de M. André Vitalis selon qui, « les capteurs, notamment les caméras vidéo, viennent enrichir le double informationnel de l'image de l'individu. [] Le double informationnel, constitué jusqu'alors exclusivement de données textuelles, devient grâce au supplément de l'image et probablement demain du son, un double multimédia » 1239. Or, ici aussi, la difficulté survient du fait que dans la loi du 6 janvier 1978, l'image est assimilée au texte 1240. Il n'y a pas de distinction entre les informations issues de sources textuelles et les informations issues d'images. « L'image, tout particulièrement, contient sur une personne beaucoup plus d'informations excédentaires par rapport à ce qui est le plus souvent recherché ou nécessaire » 1241. Mme Mornet en déduit alors que l'image en mouvement apportée par la vidéo est d'autant plus révélatrice que l'image figée sur le papier 1242. On constate qu'il s'agit indiscutablement d'un élément essentiel qui, face au 1236. CA Paris, 1re chambre, 23 mai 1995 ; D. 1996, com. 75, obs. T. H ASSLER ; J.-J. LAVENUE et al., « Faisabilité juridique de la mise en place à partir de la vidéo d'un corpus de développement et de validation dans la cadre du projet Comportements Anormaux : Analyse, Détection, Alerte » in Vidéo-surveillance et détection automatique des comportements anormaux, Septentrion, Presses Universitaires, Espaces politiques, 2011, p. 73, spéc. p. 76. Afin d'approfondir l'étude de ce sujet, Cf. infra, no 1045. On peut néanmoins citer ici un ouvrage de référence, J. RAVANAS, La protection des personnes contre la réalisation et la publication de leur image, sous la dir. de P. § 2. Les obligations
supplémentaires liées
à
l'
enregistrement
de l'image développement continu de la vidéoprotection en France, plaide pour une autonomie de l'image vis-à-vis des autres informations, notamment textuelles, au sein de la loi du 6 janvier 1978. L'image ne doit pas être vue comme une information mais doit être regardée comme le support d'un ensemble d'informations, y compris de natures différentes. 312. Lorsqu'un système de surveillance comporte à la fois des caméras dirigées vers la voie publique ou des espaces ouverts au public et des caméras dirigées vers des espaces non ouverts au public, fréquentés par des personnes que les destinataires des enregistrements sont en mesure d'identifier, il doit faire l'objet tant de l'autorisation prévue par le code de la sécurité intérieure que des formalités instituées par la loi du 6 janvier 1978. Sur le lieux de travail viennent s'ajouter les dispositions du code du travail 1243. On s'aperçoit donc que dans certains lieux, la vidéoprotection va connaître non pas un double, mais un triple régime, constitué par les dispositions du code de la sécurité intérieure, celles de la loi du 6 janvier 1978 et celles liées à certains lieux particuliers (notamment de par leur destination). La CNIL estime à 50% les dispositifs contrôlés relevant à la fois du code de la sécurité intérieure (caméras filmant des zones ouvertes au public) et de la loi « informatique et libertés » (zones non ouvertes au public) 1244. La CNIL a reçu en 2011 plus de 360 plaintes relatives à la vidéoprotection, ce qui représente une augmentation de 32% par rapport à 2010. 60% de ces plaintes concernaient la vidéoprotection sur le lieu de travail. Ces chiffres semblent se stabiliser puisqu'en 2014 un peu plus de 300 plaintes ont déposées, principalement sur des système de vidéoprotection installés sur le lieu de travail 1245. En outre, la CNIL a procédé à 150 contrôles de dispositifs de vidéoprotection en 2011 1246. Ces chiffres, en constante hausse, sont à mettre en rapport avec l'augmentation conjointe du nombre de déclarations d'installation de systèmes de vidéoprotection 1247. Selon la CNIL, il convient de remarquer que ces chiffres s'expliquent par le développement de la vidéoprotection notamment dans les entreprises, mais résulte également d'une meilleure connaissance des obligations issues du régime juridique de la vidéoprotection, notamment de la loi « informatique et libertés » 1248. 1243. L'IMAGE ET LE PROCÈ
S PÉ
NAL
313. Bien qu'une finalité probatoire n'apparaisse pas littéralement dans les dispositions légales qui ont pour objectif premier de prévenir les troubles à l'ordre public, il n'en demeure pas moins que la vidéoprotection trouve sa place au rang des moyens de preuve 1249. Anticipant la commission d'une infraction, les enregistrements vidéo auront permis de prévenir un trouble à l'ordre public ou la commission d'une infraction. À défaut, ils permettront de constituer une preuve, ou tout du moins un indice, avant même qu'une plainte ne soit déposée, voire même avant que la victime ne se sache victime. La vidéoprotection a, en ce sens, préconstitué une preuve d'un acte qui sera éventuellement qualifié d'infraction. Dans une perspective judiciaire, la vidéoprotection a pour but de disposer d'indices, voire d'une preuve de la commission d'une infraction afin de permettre l'aboutissement de poursuites. La vidéoprotection constitue un outil essentiel aux enquêteurs pour qui la consultation d'images de vidéoprotection est devenue un véritable réflexe.
§ 3. La preuve par vidéoprotection 314. La vidéoprotection incarne aux yeux de certains le « témoin parfait » pour la police. Les caméras ont observé l'infraction, l'ont enregistré et restituent de manière mécanique les images, contrairement à un témoin humain. Ce dernier, dans sa déposition, « ajoute toujours quelque chose de lui-même », de même que dans l'idée que le juge a de ce témoignage, « il y a toujours quelque chose de sa propre personne » 1250. Les images enregistrées et conservées constituent des éléments exploitables « au-delà du temps de l'action » 1251. Les enquêteurs disposent alors d'un ensemble d'informations sur les circonstances de l'infraction 1252 qui vont concourir à la manifestation de la vérité. Pour autant, à l'instar de M. de Lajartre, il convient de se demander si l'enregistrement vidéo, qui constitue un élément fort à disposition des enquêteurs dans leurs investigations, est d'une aide identique pour la juridiction judiciaire 1253. 315. Les images de vidéoprotection ont pour objet la captation de la commission d'une infraction et, en ce sens, constituent potentiellement un élément probatoire. Afin d'obtenir le caractère de preuve, les images de vidéoprotection doivent répondre à certaines exigences. Il
1249. À titre d'illustration, Cass. crim., 27 novembre 2002, no 02-80.659 ; JurisData no 2002-017298. Y compris dans le cadre de violences policières, Cass. crim., 18 juin 2013, no 12-87.538 ; Gaz. Pal. 10-11 juillet 2013, 191, p. 28. 1250. W. POMPE, « La preuve en procédure pénale », RSC 1961, p. 269, spéc. p. 285. 1251. L. DUMOULIN et C. LICOPPE, « Technologies, droit et justice : quelques éléments de mise en perspective », Droit et cultures 2011, 61, p. 13, no 34. 1252. Indications tempor
elles
,
élé
ments
physique
s ou
vestimentaires
d'un suspect, etc. 1253. V. not., A. DE LAJARTRE, « Fonctions et fictions des "miradors électroniques" publics. La "vidéosurveillance" dans la loi du 21 janvier 1995 », JCP G 1996, 36, 3955, p. 317, spéc. p. 320. § 3. La preuve par vidéoprotection est ici question de la valeur probatoire des éléments obtenus par vidéoprotection. Une étude très approfondie portant sur la vidéosurveillance et la preuve a été réalisée par Mme MarieNoëlle Mornet 1254. Il ne s'agit pas ici de tendre vers des développements d'une exhaustivité comparable 1255 mais de s'attacher à un examen plus circonscrit, touchant exclusivement à la preuve issue du système de vidéoprotection. Pour cette raison, il sera question dans un premier temps de l'administration de la preuve par vidéoprotection (A), puis, dans un second temps, des enseignements d'un détournement de vidéoprotection à des fins probatoires (B). A
. L'administration de la preuve par vidéoprotection 316. Le principe de liberté de la preuve gouverne le procès pénal. Prévue au premier alinéa de l'article 427 du code de procédure pénale, la liberté de la preuve suppose que les éléments constitutifs d'une infraction puissent être prouvés par tout moyen. Apportant un ensemble d'informations et d'éléments matériels, les images issues d'un système de vidéoprotection figurent au rang de ces moyens. Toutefois, si la preuve peut être rapportée par tout moins, il n'en demeure pas moins qu'il existe des limites et que la preuve doit être administrée légalement. Comme l'exprime Madame le professeur Delmas-Marty, « la liberté de recourir à toute forme de preuve trouve ses limites dans le respect des principes qui fondent la procédure : la preuve est libre mais sa collecte doit être légale » 1256. Évoqué seulement à l'article 81 du code de procédure pénale 1257 et au champ d'application restreint 1258, le principe de légalité de la preuve va en réalité trouver à s'exprimer à travers celui, dégagé par la jurisprudence, de loyauté 1259. Le principe de loyauté trouve se manifeste, d'une part, dans la recherche de la preuve (1) et, d'autre part, dans la discussion de la preuve (2). 1254. M.-N. MORNET, La vidéosurveillance et la preuve, sous la dir. de F. G RANET-L AMBRECHTS, Thèse, Université Paul Cézanne-Aix-Marseille III, Presses Universitaires d'Aix-Marseille, 2004. 1255. Ibid., p. 165. 1256. M. DELMAS-MARTY, La mise en état des affaires pénales, Commission Justice pénale et droits de l'homme, Ministère de la justice, 1991, p. 194. 1257. Le juge d'instruction procède, conformément à la loi, à tous les actes d'information qu'il juge utiles à la manifestation de la vérité. Article 81, alinéa 1 du code de procédure pénale. 1258. L'instruction. 1259. Pour des développements approfondi, V. not., A. LEBORGNE, « L'impact de la loyauté sur la manifestation de la vérité ou le double visage d'un grand principe », RTD Civ. juill. - sept. 1996, p. 535, spéc. p. 189 ; F. FOURMENT, Procédure pénale, Larcier, collection Paradigme, 15e édition, 2017, no 75 ; J.-R. DEMARCHI, Les preuves scientifiques et le procès pénal, sous la dir. de C. A MBROISE -C ASTÉROT, Thèse, Université de Nice-Sophia Antipolis, LGDJ, Lextenso éditions, Bibliothèque des sciences criminelles, t. 55, 2012 ; P. BOLZE, Le droit à la preuve contraire en procédure pénale, sous la dir. de F. F OURMENT, Thèse, Université de Nancy 2, 2010. La recherche de la preuve 317.
La principale hypothèse de collecte d'une preuve par enregistrement de vidéo sera celle d'un particulier ayant enregistré la commission d'une infraction par l'intermédiaire de son système de vidéoprotection. En possession des images il pourra dès lors se rendre au commissariat pour porter plainte et déposer les enregistrements réalisés. Réciproquement, il sera possible pour les forces de l'ordre, ayant connaissance ou soupçonnant la commission d'une infraction, de se faire communiquer les éléments vidéos disponibles, (notamment par réquisition judiciaire) 1260. S'adressant au responsable du service de vidéoprotection, l'officier de police judiciaire lui précisera alors la date et l'heure ou la plage horaire et se fera remettre soit une image tirée de la vidéo, soit une copie de l'enregistrement vidéo. Il est également possible pour les enquêteurs de procéder à une perquisition dans les locaux de surveillance et à une saisie des enregistrements intéressant leurs investigations. En outre, rien ne fait obstacle à ce qu'un particulier qui serait victime d'une infraction, notamment une dégradation de son véhicule dans un parking ou une rue, demande à consulter lui-même les enregistrements des caméras de surveillance. En effet, toute personne dispose d'un droit d'accès et de consultation des enregistrements la concernant. S'il ne semble pas possible pour elle d'exiger une copie, étant donné qu'il s'agit d'une consultation, elle pourra néanmoins apporter ces informations lors de son dépôt de plainte aux forces de l'ordre qui pourront se faire remettre les images 1261. 318. Plus intéressante est l'hypothèse d'un particulier ou du responsable d'un système d'enregistrement qui filmerait un lieu privé à l'insu des personnes. Il s'expose à des poursuites pénales sur le ement de l'article 226-1 précité 1262, mais en tant qu'élément probatoire, l'enregistrement sera, en matière pénale, recevable. En effet, la Cour de cassation considère « qu'aucune disposition légale ne permet aux juges répressifs d'écarter les moyens de preuve produits par les parties au seul motif qu'ils auraient été obtenus de façon illicite ou déloyale. Il leur appartient seulement d'en apprécier la valeur probante après les avoir soumis à 1260. Sur le fondement de l'article 60-1 du code de procédure pénale. 1261. Cf. infra, no 259. 1262. Le tribunal correctionnel de Lyon a toutefois relaxé un couple qui, soupçonnant l'assistante maternelle de maltraitance, avait placé un enregistreur numérique dans une peluche, enregistrant, pendant le temps de garde les activités de la salarié. 222 § 3. La preuve par vidéoprotection la discussion contradictoire » 1263. Cette position est propre à la chambre criminelle 1264 et n'est pas partagée par les chambres civiles 1265, ni par la chambre sociale 1266 ni la chambre commerciale 1267. Notons néanmoins que la première chambre civile de Cour de cassation 1268 a retenu comme procédé licite de preuve, l'enregistrement effectué au moyen de caméra de vidéoprotection, dès lors que la présence d'un tel dispositif est clairement indiquée sur les lieux. 319. Le principe de loyauté gouverne le droit de la preuve mais l'exigence de loyauté n'est pas appréciée de la même manière suivant la personne qui apporte la preuve. En effet, une distinction est faite entre l'autorité publique et le « simple » particulier 1269. La jurisprudence se montre moins exigeante envers ce dernier. Ainsi, de manière constante, la chambre criminelle admet la production de preuves obtenues de manière illicite, notamment par enregistrement, comme en témoigne une série d'arrêts 1270 dont le premier en date du 16 mars 1961 1271, décidant que « l'enregistrement par magnétophone peut constituer un indice de preuve, susceptible de s'ajouter à d'autres indices, sur lesquels les tribunaux répressifs peuvent fonder leur intime conviction ». De même, la Cour a accepté la production de vidéos réalisées clandestinement par la partie civile dans un lieu privé 1272, mais annule ce procédé lorsqu'il est mis en oeuvre par les forces de l'ordre en violation des articles 706-96 et suivants du code de procédure pénale 1273. La jurisprudence applicable à la vidéoprotection est donc somme toute classique et s'inscrit parfaitement dans la logique du droit de la preuve. Ce qui permet d'admettre en justice les images issues de systèmes de
vidéoprotection dont la présence n'est pas indiquée 1274. 1263. Cass. crim., 11 juin 2002, no 01-85.237 ; Bull. crim. 2002, 132, p. 486 ; Légipresse novembre 2002, 196, p. 182, Comm. J.-Y. D UPEUX ; RSC 2003, p. 93, note B. B OULOC ; RSC 2002, p. 881, note J.-F. R ENUCCI ; D. 2004, p. 317, note B. DE L AMY ; RSC 2002, p. 619, note J. F RANCILLON. 1264. H. VLAMYNCK, « La loyauté de la preuve au stade de l'enquête policière », AJ Pénal 2014, p. 325. 1265. Civ., 2e, 7 octobre 2014, no 03-12.653 ; JCP G, 2005, II, 10025, note L ÉGER. 1266. Cass. soc., 8 octobre 2014, no 13-14.991 ; Liaisons sociales quotidien 16 octobre 2014, no 16692, p. 1 ; RLDI, 2014, 109, no 4608, note J. DE ROMANET. 1267. Cass. com., 13 octobre 2009, no 08-19.525, Leymarie c. Association de gestion et de comptabilité d'Auvergne ; D., 2010, p. 2671, obs. P. D ELEBECQUE, J.-D. B RETZNER et I. G.-L. DAUPHIN. 1268. Civ., 1re, 24 septembre 2009, no 08-19.482 ; D. 2010, p. 2671, obs. J.-D. B RETZNER ; Droit et procédures 2010, 21, obs. N. F RICERO. 1269. Cf. infra, no 109. 1270. V. not., Cass. crim., 6 avril 1993, No 93-80.184 ; Cass. crim., 28 avril 1987, Cass. crim., 23 juillet 1992, no 92-82.721 ; JurisData no 1992-001981 ; Bull. crim. no 174, 1992 ; JCP G 1992, 46, p. 311 ; Gaz. Pal. 14 mars 1993, 73-75, Chron. 34 ; RTD civ. 1993, p. 101, La caméra cachée en droit social et en droit pénal, note J. H AUSER ; D. 1993, p. 206, note J. P RADEL. 1271. Cass. crim., 16 mars 1961 ; Bull. crim., no 172 ; D. 1961, p. 332. 1272. Cass. crim., 23 juin 1999, no 98-84.701 ; AJ Pénal 2014, p. 325, note H. V LAMYNCK. 1273. Cass. crim., 27 mai 2009, no 09-82.115 ; D. 2009, p. 1697, obs. C. G IRAULT ; D. 2009, p. 2241, obs. J. P RADEL. 1274. Pour une étude détaillée sur le principe de légalité au regard du recueil de la preuve par vidéoprotection, V
not., M.-N. MORNET, La vidéosurveillance et la preuve, sous la dir. de F. G RANET-L AMBRECHTS, Thèse, 223 L'IMAGE ET LE PROCÈS PÉNAL 320. Il existe un autre lieu riche d'enseignements d'un point de vue probatoire, le lieu de travail. Ici plus qu'ailleurs la frontière entre vidéoprotection et vidéosurveillance est poreuse et éminemment sémantique. En effet, rechercher la preuve sur un lieu de travail rend à la vidéoprotection un caractère de surveillance qui lui donne des accents de « contre-maitre moderne » 1275. En tout état de cause, les raisonnements précédents s'appliquent, y compris à un système illégal de vidéoprotection installé dans des locaux professionnels et dont l'employeur se servirait pour apporter la preuve de la commission d'une infraction par un salarié. La preuve, bien qu'obtenue dans l'illégalité (non-respect des obligations concernant l'information du personnel) et de manière déloyale, sera admissible, à charge pour l'employeur de répondre de ses manquements 1276. À titre d'illustration, la Cour de cassation a confirmé un arrêt de la cour d'appel de Bordeaux qui, a bon droit, avait condamné un préparateur en pharmacie pour des faits d'abus de confiance, en se fondant sur des images vidéos dont « les bandes étaient suffisamment probantes et établissaient la réalité du détournement commis » 1277. Bien que les enregistrements aient été obtenus à l'insu du préparateur 1278, donc illégalement, « la recherche de la vérité a justifié, aux yeux du juge pénal, que la preuve soit obtenue par tous moyens, y compris, ce qui paraît le comble, en violation de l'article 226-1 du code pénal » 1279. Une solution identique était dégagée dans une affaire où l'employeur avait dissimulé un système de caméras dont les enregistrements étaient visionnés chaque soir par le personnel de sécurité afin de surveiller les opérations de caisse et confondre plusieurs employés auteurs de vols. Si, au regard des développements précédents, ce système est éminemment hors-la-loi, il n'en demeure pas moins que la chambre criminelle a considéré qu'aucun texte de procédure pénale n'interdisait « la production par le plaignant, à l'appui de sa plainte, de pièces de nature à constituer des charges contre les personnes visées [], lesdites pièces ne constituant pas, au demeurant, des actes d'information susceptibles d'être annulés [] ; qu'il appartient aux juridictions répressives d'en
apprécier la valeur au regard des règles relatives à l'administration de la preuve des infractions » 1280. Université Paul Cézanne-Aix-Marseille III, Presses Universitaires d'Aix-Marseille, 2004, p. 192. 1275. P. LOKIEC et J. PORTA, « Droit du travail : relations individuelles de travail », D. 2012, p. 901. 1276. Y compris devant les juridictions pénales en cas d'infraction. 1277. Cass. crim., 6 avril 1994, no 93-82.717 ; Bull. crim., 136 1994, 136, p. 302 ; RSC 1994, p. 776, obs. G. G UIDICELLI -D ELAGE ; D. 1994, p. 155 ; JCP G 1994, 32, p. 228 ; Gaz. Pal. 1994, 202, p. 18. 1278. Ce dernier n'ayant pas été informé de la présence et de l'enregistrement d'images par un système de vidéo. 1279. A. DE LAJARTRE, « Fonctions et fictions des "miradors électroniques" publics. 224 § 3. La preuve par vidéoprotection
Toutefois, cette preuve ne pourra prospérer que devant le juge pénal. En effet, la chambre sociale de la Cour de cassation rejette les preuves obtenues de manière illicite 1281. Cette dernière a censuré une cour d'appel qui avait jugé licite la preuve obtenue par un employeur par le biais d'un système de vidéoprotection installé dans les locaux d'une société cliente et dont le salarié ignorait l'existence 1282. Ainsi, si l'employeur a le droit de contrôler l'activité de ses salariés, il lui « incombe de respecter, en matière de preuve, un minimum de loyauté » 1283. L'employeur peut contrôler son salarié lorsque ce dernier se trouve dans un lieu auquel il n'est pas censé accéder et n'a pas à être informé de l'existence d'une caméra. Il n'en va pas de même sur un lieu, y compris en dehors des locaux de l'entreprise, où le salarié va exercer sa mission 1284. Ainsi, dès lors que le salarié exerce son activité professionnelle sur un lieu surveillé, que ce lieu relève de l'autorité de l'employeur ou qu'il relève de l'autorité d'un client, il importe peu que le système de vidéo ait été installé à l'initiative de l'employeur ou du client, le salarié doit être informé que son activité peut être contrôlée. Censurant au visa de l'article L. 1222-4 du code du travail 1285, la Cour de cassation fonde son raisonnement sur l'obligation d'information du salarié, une information qui se doit d'être préalable afin de respecter l'exigence de loyauté prévue à l'article L. 1222-4 1286. La chambre sociale estime d'ailleurs que la surveillance non-clandestin e peut être un élément de preuve admissible 1287. Dans ces conditions, les images de vidéoprotection peuvent être reçues comme éléments de preuve 1288. Cet arrêt s'inscrit dans la droite ligne de la jurisprudence de la chambre sociale, qui interdit à l'employeur de fonder un licenciement pour faute sur une preuve obtenue de 1281. Cass. Soc., 15 mai 2001, no 99-42.219 ; D. 15 octobre 2001, p. 3015 ; JCP G 11 juillet 2001, IV, 2273. 1282. Cass. soc., 10 janvier 2012, no 10-23.482 ; RLDI 2012/80, 2682, p. 43, obs. V. F ORTI ; Dalloz actualité 24 janvier 2012, obs., Surveillance vidéo
:
nouvelle application de l'exigence de transparence A. A STAIX ; Les petites affiches
3
juin 2013
, 110, p. 5, Chron. F. B UY et J. 'IMAGE ET LE PROCÈS PÉNAL
manière illicite 1289. Le principe de loyauté, tel qu'interprété par le droit social, exclut donc les moyens de preuves qui auraient été recueillis à l'insu du salarié 1290. À l'inverse, dès lors que la présence des caméras de vidéo est connue du personnel, les enregistrements constituent un moyen de preuve licite 1291. Il existe donc une limite à la liberté des preuves par l'obligation de loyauté 1292. Enfin, il convient de faire remarquer que la chambre sociale de la Cour de cassation a considéré que « constituent un moyen de preuve illicite les informations collectées par un système de traitement automatisé de données personnelles avant sa déclaration à la CNIL » 1293. 321. Toutefois, si la preuve illégalement ou déloyalement obtenue peut être accueillie, c'est parce que, dans un second temps, elle sera loyalement discutée par les parties devant le juge. 2. La discussion de la preuve 322. La notion de loyauté de la preuve implique le concept d'égalité des armes, qui emporte « l'obligation d'offrir à chaque partie à un procès, une possibilité raisonnable de présenter sa cause dans des conditions qui ne la placent pas dans une situation de net désavantage par rapport à son adversaire » 1294. Cette recherche d'équilibre dans le duel ne se limite pas à la phase de collecte de la preuve, mais s'étend à l'ensemble du procès pénal afin de garantir un procès équitable. Il s'agit d'assurer l'équité du procès aussi bien pour la collecte que l'usage de la preuve pénale. Face à la puissance d'action de l'État, l'équilibre entre les parties doit être respecté au niveau de l'admissibilité des preuves 1295. Plus encore, l'idéal d'équité dans la 1289. Cass. soc., 4 juillet 2012, no 11-30.266
; Dalloz
actualité 26 juillet 2012, obs. A. A STAIX ; Recueil Dalloz 2012, p. 2826, Chron. Droit de la preuve, octobre 2011 - septembre 2012 J.-D. B RETZNER ; Les Petites Affiches 9 octobre 2012, 202, p. 5, note, Le salarié surveillé : mal vu, pas pris H. P ESCHAUD ; Les Petites Affiches 3 juin 2013, 110, p. 5, Chron. "Éthique de l'entreprise" F. B UY et J. T HÉRON. V. not., H. PESCHAUD, « Le salarié surveillé : mal vu, pas pris », Les Petites Affiches 9 octobre 2012, 202, p. 5. 1290. V. not., C. GUERRIER, « Salariés et vidéoprotection au temps de la LOPPSI 2 », Juriscom 22 juillet 2013. 1291. Cass. soc., 2 février 2011, no 10-14.263 ; D. , p. 901, obs. P. L OKIEC et J. P ORTA ; Gaz. Pal. 23 avril 2011, 113, p. 27, note E. WALLE. Voir également, C. GUERRIER, « Salariés et vidéoprotection au temps de la LOPPSI 2 », Juriscom 22 juillet 2013. 1292. Propos de M. l'avocat général Saintoyant, actes de de la première conférence annuelle des premiers présidents de cour d'appel, Bull. inf., C. cass., no 353, p. 16. Cité par RTD civ. 1993, p. 101, La caméra cachée en droit social et en droit pénal, note J. H AUSER. 1293. Cass. soc., 8 octobre 2014, no 13-14.991 ; Liaisons sociales quotidien 16 octobre 2014, no 16692, p. 1 ; RLDI, 2014, 109, no 4608, note J. DE ROMANET. 1294. §33, Cour EDH, Chambre, 27 octobre 1993, Dombo Beheer BV c. § 3. La preuve par vidéoprotection procédure
doit
également
être recherché dans la discussion de la pre
uve
1296. Ainsi, la preuve admise à l'audience doit encore être débattue contradictoirement, c'est-à-dire respecter le principe du contradictoire, justifiant l'admissibilité d'éléments de preuve obtenus illégalement par les parties. La notion de discussion implique la possibilité pour une partie de contester les prétentions adverses et de les combattre par tout moyen 1297. Les parties doivent être en mesure de combattre les éléments produits par l'adversaire, y compris en apporter la preuve contraire. 323. En définitive, le choix de recourir à une preuve par vidéo appartient aux magistrats qui devront contrôler à la fois la légalité du procédé mais également sa loyauté puis en apprécier la force probante. Comme le fait remarquer M. Bauden-Hamerel, « la licéité repose [] sur la légitimé de la capture de l'image, et le respect de la destination de cet enregistrement » 1298. La jurisprudence française a déjà eu à connaître de la preuve par enregistrement de vidéoprotection sous l'angle du principe du contradictoire. La chambre criminelle de la Cour de cassation a rendu, le 18 juin 2013, un arrêt dans lequel des fonctionnaires de police étaient poursuivis pour avoir commis des actes de violence à l'encontre de la personne qu'ils interpellaient. La Cour a considéré dans son arrêt que « ne méconnaît pas le principe de la contradiction [le fait de retenir un enregistrement de vidéosurveillance et de fonder sa conviction sur l'examen de ces derniers] dès lors qu'une copie de travail de l'enregistrement était jointe au dossier et qu'il était loisible aux parties d'en solliciter le visionnage au cours de l'audience » 1299. La Cour sous-entendait que si visionnage était possible, la discussion et, plus particulièrement, la contradiction de cet élément probatoire à l'audience l'était également. De plus, le fait d'avoir un enregistrement vidéo à disposition ne signifie pas qu'il doive nécessairement être visionné. En effet, la Cour de cassation a pu valider une condamnation fondée sur la transcription des cassettes vidéos consignant les manoeuvres suspectes imputées au prévenu, sans que la consultation des images fut accordée au prévenu 1300. Le prévenu arguait du fait que le refus de lui accorder le visionnage des images tant en première instance qu'à hauteur d'appel entraînait nécessairement que le contenu des cassettes vidéo avait été soustrait à la discussion des parties. L'IMAGE ET LE PROCÈS PÉNAL
transcription des cassettes de vidéosurveillance [] ne constitue qu'un élément de preuve qui a été soumis aux débats et a été contradictoirement débattu, la cour d'appel a justifié sa décision » 1301. Cet arrêt est à rapprocher de celui de la cour administrative d'appel de Lyon qui a pu considérer que ne pas recourir à un enregistrement vidéo existant ne contrevenait pas au principe du contradictoire 1302. En l'espèce, un détenu de la maison centrale de Saint-Maur était sanctionné de trente jours de cellule disciplinaire pour violence envers un surveillant. Le détenu formait alors un recours pour excès de pouvoir et voyait sa sanction annulée par le tribunal administratif de Dijon, ce dernier suivant l'intéressé dans son argumentation selon laquelle, « l'enregistrement vidéo de la scène, pourtant disponible, n'a pas, malgré sa demande, été visionnée » 1303. Appel de cette décision était interjeté par le ministère de la Justice. Saisie de l'affaire, la cour administrative d'appel de Lyon rendait sa décision le 18 avril 2013 en considérant que « la commission de discipline et le directeur interrégionnal n'ont pas fondé leur conviction de la réalité des faits sur les enregistrements de vidéo-surveillance, mais sur les témoignages recueillis et l'enquête administrative, alors que M. D a d'ailleurs reconnu avoir porté ce coup de poing. [] dans ces conditions, en n'ayant pas eu recours à l'examen contradictoire des enregistrements de vidéo-surveillance, la commission de discipline et le directeur interrégional n'ont pas méconnu le principe du contradictoire » 1304. C'était donc à tort que le tribunal administratif avait soulevé la méconnaissance de la consultation pour annuler la décision. 324. À l'instar de Mme Herzog-Evans 1305 , on peut considérer cette décision comme insatisfaisante. Tout d'abord, du point de vue du respect du principe du contradictoire. Si le détenu n'a pu accéder à l'enregistrement, l'une des « parties-juge » y avait théoriquement accès 1306. Ensuite, en termes d'efficacité de la procédure disciplinaire, le visionnage des images, qui ne nécessitait aucune mise en oeuvre matérielle complexe, aurait eu le mérite de mettre fin à toute contestation. Plus encore, il aurait permis d'observer concrètement les circonstances de survenance de l'incident et de fait, comme le souligne très justement Mme Herzog-Evans, d'en « inférer une sanction plus adaptée », conduisant ainsi à donner aux 1301. Cass. crim., 27 novembre 2002, no 02-80.659 ; JurisData no 2002-017298. 1302. 228 § 3.
La preuve par vidéoprotection sanctions disciplinaires un caractère plus légitime. Alors que de plus en plus de caméras sont installées dans les lieux de privation de liberté, le recours aux enregistrements réalisés n'est qu'exceptionnellement mis en oeuvre. Contrairement aux pratiques des forces de l'ordre hors les murs, le recours aux images de vidéoprotection ne semble pas encore être un réflexe dans le cadre des procédures disciplinaires. Mme Herzog-Evans, pour sa part, va plus loin dans la critique et considère que le « sous-usage » de l'enregistrement vidéo révèle la nécessité pour l'administration pénitentiaire de faire émerger une culture de l'enquête. La vidéoprotection permettrait de mettre en lumière pressions ou contraintes, provocations ou menaces et de démasquer les éventuels autres protagonistes en contribuant à une culture de l'intelligence, tout en apportant une légitimité accrue aux procédures disciplinaires. Cette légitimité contribuerait à la sécurité interne. Loin d'être anecdotique, un élément mis en avant par l'auteure démontre tout l'intérêt de ce raisonnement. Les faits ayant donné lieu à la sanction se sont déroulés lors du trajet vers le parloir et l'intéressé portait des menottes, situation extraordinaire qui a participé à l'environnement entourant l'acte sanctionné, constitutif d'une faute disciplinaire, mais également d'une infraction pénale. Or, « rappelons qu'en matière répressive, ce ne sont point seulement des gestes qui sont pris en compte, mais également les personnes et les circonstances tant desdites personnes que de la commission des infractions. C'est ce qui permet de prononcer des sanctions proportionnées, comme l'exige la Déclaration des droits de l'homme, ainsi que la plupart des systèmes juridiques du monde » 1307. l'heure où la répression des fautes disciplinaires est de plus en plus critiquée et remise en cause dans son cumul avec les infractions pénales, la vidéoprotection aurait pu jouer, en l'espèce, un rôle, si ce n'est dans la légitimité des sanctions disciplinaires, du moins dans la légitimation de cette sanction disciplinaire. Ces remarques trouvent un écho dans la décision rendue par le Défenseur des droits, le 1er août 2014 1308. Dans le cadre de sa mission en matière de déontologie de la sécurité, il était saisi par plusieurs détenus se plaignant de s'être vus refuser l'accès aux enregistrements vidéo de l'établissement lors de procédures disciplinaires engagées à leur encontre. L'IMAGE ET LE PROCÈS PÉNAL
les caméras 1310. Il recommandait également qu'obligation soit faite à l'enquêteur désigné de décrire le contenu des enregistrements vidéos des faits donnant lieu à poursuites disciplinaires. Plus important encore, il recommandait, afin d'assurer l'effectivité des droits de la défense de la personne détenue, dans toutes les phases de la procédure disciplinaire, que le visionnage des enregistrements vidéo fut également rendu possible au stade de la préparation de sa défense, seul ou assisté d'un avocat. Enfin, sauf impossibilité matérielle avérée, la personne détenue devrait être en mesure de demander le visionnage des images enregistrées au cours de l'audience disciplinaire, afin que tous les membres de la commission puissent également en prendre connaissance 1311. 325. Toutes ces critiques semblent avoir été entendues puisqu'un décret du 24 octobre 2016 a modifié l'article R. 57-7-16 du code de procédure pénale relatif aux conditions de consultation du dossier de la procédure disciplinaire et des éléments utiles à l'exercice des droits de la défense 1312. Désormais, la personnes détenue poursuivie en commission de discipline ou son avocat, peuvent demander à consulter les données de vidéoprotection, à condition que celles-ci n'aient pas été effacées. L'administration pénitentiaire doit répondre à cette demande d'accès dans un délai maximal de quarante huit heures. En outre, les images visionnées font l'objet d'une transcription dans un rapport versé au dossier de la procédure disciplinaire. 326. Si, dans certaines hypothèses, la justice est peu encline à consulter les images vidéo disponibles, il arrive parfois qu'au contraire, elle outrepasse les règles afin de disposer d'images Le détournement d'une caméra de vidéoprotection
327. La Cour européenne des droits de l'homme a eu a connaître de la vidéoprotection sous un angle qui permet de mieux observer ce moyen au regard du droit de la preuve. Les faits de l'espèce, suffisamment singuliers pour attirer l'attention (1), permettent en réalité de s'interroger sur le droit de la preuve et, plus exactement, sur l'appréciation jurisprudentielle du droit de la preuve, qu'elle soit nationale ou européenne (2). 1310. Recommande, dès lors que des faits donnant lieu à poursuite disciplinaire contre une personne détenue ont eu lieu dans une zone couverte par des caméras vidéo de l'établissement pénitentiaire concerné, qu'il soit recouru aux enregistrements vidéo, sauf motif de sécurité publique ou de l'établissement, justifié par des éléments objectifs. 1311. Décision du Défenseur des droits du 1 août 2014, MDS-2014-118, Décision relative à l'accès des personnes détenues aux enregistrements vidéo de l'établissement pénitentiaire lors des procédures disciplinaires. 1312. Décret no 2016-1432 du 24 octobre 2016 relatif aux conditions de consultation par les personnes détenues poursuivies en commission de discipline du dossier de la procédure et des éléments utiles à l'exercice des droits de la défense, JORF no 250 du 26 octobre 2016, texte no 20, NOR : JUSK1620424D. 230
§ 3. La preuve par vidéoprotection 1. L'affaire Perry contre Royaume-Uni 328. À travers l'affaire Perry contre Royaume-Uni du 17 juillet 2003 1313, la Cour euro- péenne des droits de l'homme était invitée à s'intéresser au cas d'un requérant mis en cause dans une série d'infractions qui, refusant de prendre part à une parade d'identification, s'était vu filmer à son insu par des caméras de vidéosurveillance d'un commissariat, à la requête des enquêteurs et à des fins d'identification. L'acte avait pour fondement juridique la législation sur l'utilisation de dispositifs techniques au cours de surveillances menées par la police. Le requérant avait été transféré de la prison où il était initialement détenu (pour une autre affaire) au commissariat de police, en étant informé qu'il s'agissait de prendre part à une parade d'identification. À son arrivée au commissariat l'individu refusa de participer à la parade (ce que les enquêteurs avait anticipé) et fut filmé au moyen d'une caméra de surveillance fonctionnant en permanence et installée de manière à pouvoir enregistrer les allées et venues des suspects et des policiers. Cependant, un technicien l'avait spécialement réglé de façon à ce qu'elle prenne des images nettes du requérant. Les policiers réalisèrent ensuite un montage vidéo incorporant les prestations de onze volontaires invités à imiter les faits et gestes du requérant tels qu'ils avaient été enregistrés par la caméra. La vidéo fut alors montrée à plusieurs témoins. Deux d'entre eux identifièrent formellement le requérant. Ni ce dernier, ni son conseil ne furent informés de la réalisation d'une cassette vidéo à des fins d'identification, pas plus qu'ils n'eurent la possibilité de la visionner avant qu'elle ne fût utilisée , à la fois pour l'identification au moment de l'enquête mais également lors du procès 1314. À l'audience, le juge invita les jurés à se demander si l'enregistrement vidéo était une méthode suffisamment fiable pour permettre aux témoins de reconnaître leur agresseur, ajoutant que s'ils jugeaient que non ils ne devaient accorder qu'un poids minime, voire nul, aux résultats des procédures d'identification. Il informa en outre les jurés des griefs du requérant tirés de la déloyauté et de la partialité dont la police aurait fait preuve à son égard, ainsi que de ses allégations concernant les manquements au code de conduite dont elle se serait rendue coupable. L'intéressé fut condamné. L'IMAGE
ET LE PROCÈS
PÉ
NAL
pouvait soulever des questions liées à la vie privée, rappelant ainsi les arrêts Rotaru contre Roumanie et Amann contre Suisse 1316. La Cour poursuivait en indiquant que l'utilisation ordinaire de caméras de surveillance dans des rues et dans des édifices publics, tels que des centres commerciaux ou des commissariats, où elles visent un but légitime et identifiable, ne soulève en elle-même pas de difficultés au regard de l'article 8§1 de la Convention. Revenant sur les faits de l'espèce et le « stratagème » mis en place par les enquêteurs, la Cour estimait qu'il s'agissait de déterminer si le recours à la caméra et aux données personnelles étaient propres à porter atteinte au respect de la vie privée. Or, « que l'intéressé se soit ou non rendu compte que des caméras de surveillance fonctionnaient dans la salle de garde à vue, rien n'indique qu'il se soit attendu à être filmé dans le commissariat à des fins d'identification vidéo, voire de constitution de preuves susceptibles, d'être produites au cours d'un procès ». Selon la Cour, « ce subterfuge employé par la police excède les limites de l'utilisation normale ou prévisible de ce type de caméra, comme en attestent l'obligation qu'avait la police d'obtenir une autorisation pour pouvoir l'utiliser et l'intervention d'un technicien à qui la police avait demandé d'effectuer un réglage spécifique. L'enregistrement de la séquence litigieuse sur un support permanent et son insertion dans un montage en vue d'une utilisation ultérieure peuvent par conséquent être considérés comme un traitement ou une collecte de données à caractère personnel concernant le requérant » 1317. La Cour rejetait en outre l'argument du gouvernement britannique qui soutenait que l' de la séquence vidéo était comparable à l'utilisation de photographies d'un fichier anthropométrique dont l'emploi avait été jugé légitime par la Commission si sa finalité se limitait à l'identification des suspects dans une procédure déterminée 1318. Cependant, dans cette affaire, il n'y avait pas d'ingérence dans la vie privée car les photographies avaient été volontairement remises aux autorités. De plus, en l'espèce, l'enregistrement effectué avait été réalisé sans l'accord de l'intéressé, « dans des circonstances où celui-ci ne pouvait raisonnablement prévoir que des images de lui seraient enregistrées et utilisées à des fins d'identification » 1319.
| 23,957
|
dumas-04592141-16ELE01912_M2_2019_texte.txt_8
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
La peinture d’histoire autour de Charles Le Brun en France. Catalogue raisonné des peintures d’histoire de l’école française de la seconde moitié du XVIIe siècle du musée des Beaux-arts de Dijon. Art et histoire de l'art. 2020. ⟨dumas-04592141⟩
|
None
|
French
|
Spoken
| 7,356
| 12,415
|
Clémentine Gustin-Gomez voit également dans la composition une trace du tableau de Van Dyck, Vénus demande à Vulcain des armes pour Énée592. La composition de Charles de La Fosse puise également peut-être au décor peint par Mignard en 1678 sur le thème des Quatre Saisons pour Monsieur dans la Galerie d’Apollon à Saint-Cloud593. D’un point de vue stylistique, le modèle vénitien est évident, en particulier Titien, tant par la chaleur de la lumière dorée, les reflets sur les textiles et la palette brune où dialoguent les roses, les verts et le blanc des chairs. De Véronèse, la Fosse garda les motifs du petit chien et du vase au pied d’Ariane, également présent dans la version du Titien594. Quant aux cernes bruns qui entourent les figures, ils pourraient-être un emprunt à Bassano595. Bacchus et Ariane doit également beaucoup à Rubens. Les références à ce dernier étaient de plus en plus marquantes chez les émules de Le Brun depuis que celui-ci avait clairement fait référence Ovide, Métamorphoses, VIII, v. 169-182 ; L’Art d’aimer, I, v.536-537 ; Les Fastes, III, v.473-475 ; Catulle, Poésies, poème 64, v.202-250. 588 Versailles, 2015, La Fosse, p.57 589 Fig.175 590 Fig.176 591 Fig.177 ; Senkevitch, 2018, article en ligne ; Gustin Gomez, 2006, vol.2, p.85, P.121 592 Fig.178 ; Gustin-Gomez, 2006, vol.1, p. 157 593 Fig.179 ; Idem p.152 594 Fig.180 595 Gustin-Gomez, 2006, vol.1, p. 140-142 587 145 au
color
iste dans la Descente de croix de 1679596.
Dans
Bacc
hus
et Ariane
, la blondeur d’Ariane et ses formes pleines, les
chair
s nacrées,
la liberté de la touche, la subtilité du clair-obscur et les draperies aux reflets blancs apparaissent comme des hommages à Rubens
. De Le Brun, La Fosse n’aurait conservé pour la commande de Marly que la méthode de travail. Délaissant les effets plafonnant et les théories de la perspective, l’artiste semble avoir préféré l’expérience pratique. La Fosse avait pour habitude de faire modeler des figures en terre pour pouvoir dessiner en prenant en compte les déformations du point de vue597. Le procédée a peut-être été utilisé pour le tableau de Marly dont les personnages possèdent des jambes d’une longueur dont la proportion devait être rétablit par la vue da sotto in sù. Comme Le Brun, La Fosse utilisa le dessin pour construire l’espace et agencer les volumes de sa composition. Ainsi, dans la feuille préparatoire de Bacchus et Ariane, il dessina l’ensemble de la composition à la sanguine avant de la reprendre à la pierre noire pour que les modifications ne nuisent pas à la clarté de l’ensemble. L’inversion de la scène par rapport à l’original lui permit de s’assurer de l’équilibre de sa composition598. Si La Fosse puisa abondamment dans les maîtres du passé, Bacchus et Ariane n’a rien du pastiche ou du collage d’éléments disparates. La figure d’Ariane est typique de l’artiste et se rencontre également dans Apollon et Téthys ou Hercule entre le Vice et la Vertu599. La composition est également proche de L’Apollon et Téthys mais aussi de Vénus demandant des armes pour Énée600. Les reflets dans les draperies du couple sont typiques de la fin carrière de l’artiste, après son retour d’Angleterre en 1692. L’esprit de l’œuvre est lui aussi propre à son créateur. La monumentalité et le statisme des figures sont bien éloigné du dynamisme du Bacchus et Ariane de Titien, que l’artiste aurait pu voir à Rome, chez les Aldobrandini601. Le soin pris à mettre de côté les attributs au profit de l’échange entre les deux personnages apporte une simplicité neuve. Le char tiré par les panthères, le thyrse et le pampre sont relégués en bas de la composition, dans l’ombre, et le décor est presque inexistant. Seul le petit chien rappelle l’histoire d’Ariane. L’animal semble aboyer contre Bacchus et la jeune femme qui le désigne au dieu dire que c’est à cause de sa fidélité à Thésée que son malheur est advenu. Loin des programmes allégoriques 596 Rennes, musée des Beaux-Arts, Inv. 811.1.1 ; Chastagnol, 2018, article en ligne Gustin-Gomez, 2006, vol.1, p.132 598 Idem, p.188, 190 et p.210, D.81, le dessin est conservé en collection particulière. 599 Versailles, Musée national des châteaux de Versailles et Trianon, inv. MV7352 ; Nevers, musée de la faïence et des Beaux-Arts 600 Nantes, musée des Beaux-Arts, Inv. 630
601 Fig.180 597 146 complexes
de la Tenture des Saisons de
1664
, le Bacchus et
Ariane de la Fosse propose une lecture plus intuitive, actualisant les textes anciens par la représentation de l’échange galant602. Le statisme de la composition et son épure sont cependant arrivés progressivement à l’esprit de la Fosse et ont été probablement imposés par les 12 mètres de hauteur du salon de Marly et le format très étroit du décor. Le dessin préparatoire de la composition montre effet que l’artiste avait d’abord choisit la scène de la rencontre, plus dynamique, où Ariane vient d’être surprise par l’arrivée du dieu. Pour Tatiana Senkevitch, le recentrement sur les lamentations d’Ariane pourrait aussi être interprété comme un choix par l’artiste du mode lyrique, lui permettant de se détacher des multiples références auxquelles il puisa. Cette sensualité lyrique répondrait au développement contemporain des drames chantés et à la nouvelle traduction des Fastes d’Ovide de 1697. En ce sens, le tableau de La Fosse présente une synthèse des modes lyrique et héroïques, brouillant les frontières de la peinture d’histoire et témoignant de l’état d’esprit de l’école de peinture française autour de 1700603. Tenture des Saisons, d’après Charles Le Brun, quatre pièces et quatre entrefenêtres, Paris, Mobilier National ; Senkevitch, 2018, article en ligne 603 Idem 602 147 42 JOUVENET Jean (Rouen, 1644 Paris, 1717) Vénus dans la forge de Vulcain Vers 1699 Huile sur toile H. 110 cm ; L. 85 cm In . 2019-1-1 Hist. : Paris, vente Grimod de La Reynière, 3 avril 1793, n°159, vendu 1 210 livres à Lebrun ; Paris, vente Mme de Forestier, 27 novembre 1816, n°20, vendu 74 francs à Thomas Grignion ; Collection privée ; 04/2018, Galerie Heim ; 02/2019 don de la SAMD. ; Restauration au C2RMF ; 18/01/2020 remise à la ville de Dijon. Bibl. : Leroy, 1860, p.279 ; Guillot, Revue catholique de Normandie, juillet 1915, t. XXIV, pp.305-313 ; Schnapper, 1974, pp.207-208, cat.95 ; Schnapper et Gouzi, 2010, p.262-263, p. 138 ; Galerie Heim, 2018, catalogue n°26, pp.10-16.
Réapparue en 2018 galerie Heim, Vénus dans la forge de Vulcain a été donnée par la Société des Amis des Musées de Dijon grâce au legs de René Dupoix. Deux versions, un autographe et une réplique exécutée avec l’aide de l’atelier, furent peintes par Jean Jouvenet, sans que l’on sache si l’une ou les deux furent exposées au Salon de 1699 et 1704604. La version autographe passa dans la vente Grimod de la Reynière en avril 1793. Acheté par l’expert Lebrun pour 1 210 livres, le tableau apparut ensuite dans la vente de Madame Forestier en 1816, où il entra en possession de Thomas Grignion605. Après cette date, l’œuvre passa dans différentes collections privés, avant de réapparaitre aux mains de la Galerie Heim. La seconde version, de format plus réduit (80,6 cm x 64,8 cm) fut vendue par Sotheby’s en 2000, par la galerie Heim en 2002, par Christie’s en 2008 et pourrait être la réplique passé dans la vente Montoya à Berlin en 1912606. Par son format, le tableau de Dijon correspond à la version autographe. Cette dernière avait été gravée par Duflos, selon le catalogue de la vente de la Reynière. Toutefois, la seule gravure connue est de la main de Desplaces et porte la lettre « J.Jouvenet pinxit 1703 »607. Cette date signifierait que l’œuvre autographe n’aurait été exposé qu’au Salon de 1704 et que la Vénus dans la forge de Vulcain du salon de 1699 serait une autre composition. À moins que Desplaces ne se soit basé sur la réplique en partie autographe pour réaliser la gravure. Les analyses menées par le C2RMF ne démentent pas la paternité du tableau de Dijon608. La réflectographie infra-rouge et la radiographie ont révélé des repentirs et un dessin sous-jacent, tracé au 604 Schnapper, 1974, p.142 Gouzi, 2010, p. 262, P.138 606
Fig. 181 ;
Go
uzi, 2010,
p
.262,
P
.139 607 Fig.182 608 DO 2019-1-1, Ceresa, Devis de restauration fondamentale de la couche picturale, 3 janvier 2019 605
148 pinceau avec des cernes assez épais, qui témoignent d’une mise en place progressive de la composition. Si la participation de l’atelier n’est pas exclue pour les parties secondaires légèrement moins soignées, les hésit témoignent du statut original de l’œuvre, qui ne peut être ni une copie ni une réplique. Les analyses ont également révélé des guirlandes de tension témoignant peut-être de la réduction du format de la toile en hauteur609. Les dimensions de la vente Reynière étaient effectivement légèrement supérieures à l’œuvre telle qu’elle est conservée aujourd’hui (113 cm par 86 cm). Cela s’accorde également avec la gravure de Desplaces, la réplique d’atelier, et la copie conservée à Oslo, où le haut de l’échelle des cyclopes et la paroi gauche sont visibles alors qu’ils sont absents de l’autographe tel que conservé aujourd’hui610. Le sujet de l’œuvre est tiré de l’Énéide, dont un vers « Sensit laeta dolis et formae conscia coniunx » (« L’épouse, heureuse de sa ruse et sûre de sa beauté, l’a senti ») illustre la gravure de Desplaces611. Permettant d’opposer la force brute à la séduction, le sujet fit l’objet de très nombreuses représentations à partir de la fin du XVIIe siècle. Bien que pétrie de classicisme, Jouvenet fut également un artiste attiré par la représentation soignée des éléments du quotidien. Cette particularité est brillamment illustrée dans la scène par la minutie du rendu des outils de la forge, celle-ci possédant une matérialité bien plus marquée que les nuées choisies plus tard par Boucher ou Natoire612. Si ce goût du réel inspirera à Antoine Schnapper un parallèle avec les frères Le Nain, l’esprit de l’œuvre est tout autre613. Vénus, gracieuse mais fermement représentée, Vulcain, dont l’aspect rappelle L’Hiver réalisé à la même époque pour Marly, s’apparentent plus à des types qu’à des êtres incarnés. La palette étonne au regard des choix habituels de l’artiste, dont les peintures brunes sont relevées de touches de couleurs vives et fortes. Elle étonne d’autant plus que l’historiographie à surtout retenue de Jouvenet les grandes compositions religieuses déclamatoires des années 1695-1708, au détriment de toute la production mythologique de l’artiste614. Tel n’était pas le cas dans la seconde moitié du XVIIIe siècle, où Jouvenet était apprécié des amateurs en tant que membre actif de l’émergence de la peinture française sous le règne de Louis XIV, ce dont témoignent multiples copies de la composition615. Un sujet de mythologie aimable comme Vénus dans la forge de Vulcain justifiait sans 609 DO 2019-1-1, C2RMF, rapport n°39428, novembre 2018, p.4 Fig.181-182 ; Oslo, Nasjonalmuseet, Inv. NG.M.00334h 611 Virgile, L’Énéide, VIII, v.393 612 Paris, musée du Louvre, Inv. 2707 bis et Inv. 2709 613 Schnapper, 1974, p.142 614 Idem
, p
.129 615 Gouzi
, 2010, p
.262,
P
.38 610 149 doute que l’artiste adoucisse sa palette. Le manteau de Vénus, dont les teintes roses et mauves ont été particulièrement travaillées, témoigne d’un certain regard porté par l’artiste sur Titien ou Véronèse, qui
s’il est rare
n’
est
pas unique
dans l’œuvre de l’artiste616.
616 Jean Jouvenet, La Naissance de Bacchus, Meudon, château ; Gouzi, 2010, pp.263-264 150 43 CORNEILLE Jean-Baptiste (Paris, 1649 – Paris, 1695) La Mort de Caton d’Utique Signé et Daté : « I BAPTISTE CORNEILLE 1687 A PARIS » Huile sur toile H. 131 cm ; L. 163 cm Inv. CA 256 Hist.: Dijon, collection de Charles Balthasar Févret de Saint-Mesmin ; 1792, saisie révolutionnaire. Bib.: Auzas, 1961, pp.45-48 ; Dijon, 1965, Févret de Saint-Mesmin, cat.25 ; Okayama, 1989, Au temps de Louis XIV, cat.3 ; Montréal, 1993, Grand Siècle, cat.120 ; Dijon, 2000, Collections, p.124 ; Paris, 2001, Passion, cat.32 ; Cassey, 2013, pp.145-146. Tableau de cabinet, La Mort de Caton d’Utique fut saisie parmi les biens de Charles-Balthasar Févret de Saint-Mesmin en 1792. Conformément aux indications de l’inventaire révolutionnaire, le tableau intégra les collections du musée dès 1799. Sa force expressive fut probablement vite remarquée puisque les Notices de Claude Hoin mentionnent l’œuvre dans la première salle au côté du Sacrifice de la fille de Jephté d’Antoine Coypel avec qui elle partage une même conception de la peinture d’histoire fondée sur l’expression théâtrale des passions617. En 1818, Févret de Saint-Mesmin, devenu conservateur en 1817, classa son ancienne possession parmi les « beaux » tableaux du musée618. Dégradé en 1901 par un orage de grêle l’œuvre fut restaurée avant d’être de nouveau accrochée dans les salles619. Les notes d’Albert Joliet et les catalogues de 1914 et 1933 situent le tableau salle XX620. Malgré une attribution à Jean-Baptiste Corneille remontant à la Révolution, Jeanne Magnin soutint que La Mort de Caton ne pouvait être de la main du fils et la donnait à Michel I Corneille621. Le recouvrement de la signature et la méconnaissance de l’œuvre de Jean-Baptiste Corneille avaient probablement causés cette attribution. Pour Jeanne Magnin, la violence de l’œuvre ne pouvait s’apparenter à la fin du siècle mais bien plutôt à un maniérisme tardif. Rendu à son auteur à l’occasion du catalogue de 1968, le tableau fait désormais figure de jalon majeur dans la production de Jean-Baptiste Corneille. Cat.29; AMD, 4R1 11, Hoin, Notices... AMD., 4R1 11, Catalogue, 1818 619 AMD, 4R1 162, lettre du conservateur au maire de Dijon, 4 juillet 1901 620 MBAD, Documentation, dossier « Historique des Salles, Généralité », sous-dossier Albert Joliet 621 Magnin, 1914 et 1933, salle XX 617 618 151
Contrairement aux tableaux d’autels réalisés pour des établissements dijonnais, Jean-Baptiste Corneille pu laisser exprimer dans cette œuvre toute la force et l’originalité déjà visible dans ses études préparatoires. En héritier de Le Brun, l’artiste axa sa composition sur la violence de l’épisode en jouant sur les lignes et exacerbant la rhétorique des passions théorisée par son maître. La composition en frise est savamment déstabilisée par une multitude de lignes annexes que renforcent les couleurs. La lumière attire l’œil sur les entrailles de Caton, décentré, d’où part une ligne sinueuse, du bras de l’homme en rouge jusqu’au personnage vêtu de bleu. Cet agencement circulaire placé sur le côté gauche de la composition est contrebalancé par les lignes de fuites filant vers la droite en dehors de la composition et attirant l’œil sur les personnages accourant d’une galerie qui prolonge la profondeur du tableau. L’espace ainsi construit accentue l’impression de tumulte de la scène tout en l’ouvrant sur la suite du récit de Plutarque622. L’attention accordée par Corneille à la narration est également visible dans le rendu de l’expression des personnages. L’enchaînement des mains figées, des poses contournées et des grimaces confèrent à l’œuvre un rythme saccadé. En ce sens, La Mort de Caton apparait comme un prolongement des réflexions menées au sein de l’Académie royale de peinture de sculpture, qui, portées par Le Brun, accordaient à l’expression des passions le pouvoir d’animer la peinture malgré sa nature statique623. Jean-Baptiste Corneille est cependant un artiste de la fin du siècle. Bien que l’homme en gris emprunte à la figure de « l’effroi » de Le Brun, les expressions sont poussées à l’extrême et témoignent des préoccupations de sa génération pour qui le théâtre devint un modèle majeur624. Le mélange du sévère ordre toscan et de chapiteaux fantaisistes tient plus du décor que de la reconstitution fidèle de l’antique et le vestibule, avec son rideau et la lune soigneusement peinte à l’occulus, semble cacher les coulisses d’où s’élancent des acteurs déguisés en soldats. Durant le XVIIe siècle, le thème de la mort de Caton connu une certaine popularité, notamment à Rome où le stoïcisme séduisait de nouveau627. Corneille lui-même possédait une version traduite de la Vie de Caton par Plutarque et n’ignorait pas les œuvres qu’avait inspirées le récit628. L’invention du peintre doit beaucoup à la gravure exécutée par Pietro Testa en 1648629. Les deux œuvres partagent en commun un jeu de lumières vives, une expression de la douleur matérialisée dans les drapés (le rideau chez Testa, les vêtements chez Corneille), une composition en frise centrée sur la gauche, la porte à droite d’où émergent des figures, et des détails tels la tablette marquée de figures géométriques, l’autel allumé, le pied de Caton hors du lit et son poing fermé symbolisant la douleur retenue. La gravure de François Chauveau pour La Femme héroïque de Jacques Du Bosc n’est pas non plus sans liens avec la composition de Corneille, qui semble y avoir pris l’éclairage dramatique et les personnages figés par l’horreur630. La posture de Caton dérive du Laocoon, que Corneille utilisa également dans son may de 1679 et pour L’Apparition de Nicolas à l’empereur Constantin631. Par certains aspects (compositions en frise, soin apporté aux armes et au décor, architecture ouverte et déportation du lit sur le côté) La Mort de Caton rappelle La Mort de Germanicus de Poussin632. Toutefois, là où tous les modèles utilisés par Corneille sont baignés de tradition stoïque et offrent des exemples de vertu, La Mort de Caton de Corneille s’approche bien plus du Traité du Sublime de Longin ou de la fascination morbide et violente de Jean-Pierre Camus dans les Spectacles de d’horreur et L’Amphith âtre sanglant633. 626 Fig. 103 Montréal, 1993, Grand Siècle, p.342, cat. 120 628 Paris, 2001, Passion, p.141, cat.32 629 Fig.183 ; Montréal, 1993, Grand Siècle, p.342, cat.120 630 Fig.184 ; Paris, 2001, Passion, p.141, cat.32 631 Fig.99 et Paris, église Saint-Louis-en-l’Isle 632 Fig.185 633 Paris, 2001, Passion, p.141, cat.32 627 153
Le sujet fut peut-être traité une seconde fois par l’artiste, sur une toile conservée à l’Alte Pinakothek de Munich634. Le goût pour le costume, moindre, et la composition en frise s’y retrouvent, ainsi qu’une certaine fidélité au récit de Plutarque (les livres, présence de l’enfant qui a apporté l’épée). La palette est cependant beaucoup plus chaude et la composition plus stable, les personnages s’écartant avec violence du corps, sans produire de lignes aussi puissantes que dans la version de Dijon. Le spectacle de l’horreur y est aussi plus mesuré, la touche moins fine et soucieuse de détails, et les drapés moins anguleux et torturés.
634 Fig.
186 154 44 BOULLOGNE Bon de (Paris, 1649 – Paris, 1717) Pan et Syrinx Vers 1685-1710 Huile sur toile H. 65 cm ; L. 81,5 cm Inv. CA 382 Hist. : Dijon, collection Bénigne Bouhier à Lantenay ; 1793, saisie révolutionnaire ; 1799, catalogué au MBAD ; dépôt au Commissariat central ; 1974, dépôt hôtel de Voguë ; 2009 retour de l’œuvre au MBAD. Bibl. : Dijon, 2014, Boullogne, p.16. L’historique de Pan et Syrinx est exemplaire de l’oubli dans lequel tomba son créateur. Le tableau fut cité dans l’inventaire Devosge au numéro seize des œuvres saisies à Lantenay dans la collection de Bénigne Bouhier comme une « copie d’après LaFoce, celle-ci nous présente Sirenze métamorphosée en roseau par son père au moment où le Dieu Pan allait s’emparer d’elle ». Le tableau faisait pendant à « Acis amoureux de Galatée, tous deux réunis regardant Polipherme assis au haut d’une montagne sur un plan éloigné, le fond du tableau est terminé par un paysage », de même dimensions et également attribué d’après « LaFoce ». Tandis qu’Acis et Galatée fut vendu, Pan et Syrinx fut annoté de la lettre « C », ce qui dans l’inventaire Devosge indique que le tableau est destiné à être conservé. La mention « C » est normalement complétée d’autres lettres précisant le lieu de dépôt de l’œuvre, ce qui n’est pas le cas pour Pan et Syrinx. Le tableau fut inscrit dès 1799 dans les collections du musée où il apparait dans le catalogue non plus comme une copie de La Fosse mais comme un original de Nicolas Loir. Il fut ensuite accroché dans la première salle du musée mais jugé « médiocre » dans le Catalogue de 1818635. Exposé dans la salle XXII du musée en 1914, il en fut retiré avant la parution du catalogue de 1933. À la fin du XXe siècle, le tableau remplit une fonction décorative, d’abord au Commissariat central, rue des Godrans, où il entra à une date inconnue et qu’il quitta dans les années 1960 en échange d’un paysage, puis en 1974 dans la salle des Gardes de l’hôtel Voguë où il resta jusqu’en 636. La rentrée du tableau dans les collections entraina un regain d’intérêt pour l’œuvre qu’Antoine Schnapper refusait de donner à Loir637. Il fallut 635 AMD, 4R1 11, Hoin, Notice...; 4R1 11, Catalogue, 1818 MBAD, Documentation, dossiers G1, G3, G5 ; Régie, dossiers « dépôts clos », hôtel de Voguë 637 DO CA 382, échanges de courrier entre Matthieu Gilles et Moana Weil-Curiel, juillet-août 2009 636 155 attendre la rétrospective monographique de 2014 organisée par François Marandet pour que Pan et Syrinx soit rendu avec assez certitude à Bon de Boullogne638. Oublié dès la Révolution, Bon de Boullogne était un artiste à la manière protéiforme, réputé pour ses talents de copistes et d’imitateurs, rendant difficile l’attribution de tableaux à son nom639. Les Métamorphoses d’Ovide semblent avoir été une des sources de prédilections de l’artiste. Pratiquant volontiers la répétition à partir des années 1680, Bon de Boullogne réalisa plusieurs versions d’Acis et Galatée, donnant un aperçu du pendant perdu, et de Pan et Syrinx640. Le musée d’Art et d’Histoire de Lisieux et celui de Bayeux possèdent ainsi des compositions assez similaires à la version de Dijon. Une troisième variante passa en vente chez Sotheby’s en 2012. La posture de Pan, cheveux ébouriffés, petites cornes, ouvrant la bouche et portant le pedum, est assez similaire aux trois autres versions. Le tableau de Dijon se distingue toutefois par une réduction de l’action à ses personnages principaux et un cadrage resserré ouvert sur un paysage restreint. Alors que les versions de Lisieux et Sotheby’s sont dominées par les tons bruns et verts, le drapé rosé de Syrinx et les jeux du soleil couchant apportent au tableau dijonnais une plus grande intensité de coloris. L’ensemble donne à la fois l’impression que l’artiste voulut se concentrer sur le drame, accentué par la rhétorique gestuelle des personnages, tout en lui ôtant son caractère tragique. Les gestes suspendus évoquent plus une danse que la violence d’un rapt et Pan, souvent laid et grimaçant, est plus proche d’un Apollon poursuivant Daphné que d’un satyre. Cette ambivalence conforte l’attribution à Bon de Boullogne, dont l’aspect plaisant et calme des compositions ovidiennes semble être un héritage de son père, Louis I de Boullogne641. Un autre élément en faveur de l’attribution à Bon de Boullogne est la similitude des poses avec d’autres tableaux de l’artiste. Syrinx est le miroir d’une joueuse de tambourin d’un dessin de Bacchanale portant l’inscription « Boullogne Laisné », reprise également dans Zéphyr et Flore642. La pose du père, genou droit au sol, jambe gauche relevée, bras levés au ciel, doigts écartés et dos vouté, est très proche de la posture du père d’Io, vu cette fois de face, dans le tableau signé de Tours Le drapé de Syrinx, à la fois rigide et animé par le vent, légèrement écarté du corps tout en l’entourant, présente des similitudes avec celui de Neptune dans le dessin préparatoire du 638 Dijon, 2014, Boullogne Dijon, 2014, Boullogne, p.15 640
Fig
.187-189
641
Dijon, 2014, Boul
logne
, p.42
,
cat.1 642 Fig.190-191 643 Fig.192 639 156
Triomphe de Neptune et Amphitrite644. Ce type de drapé se remarque aussi dans le dessin de Stockholm et autour de Mercure dans Vénus à sa toilette ou d’Acis dans Acis et Galatée645. Quant à lui, L’aspect dansant et gracieux et des figures est un héritage de l’Albane, dont Boullogne semble avoir fait sa source d’inspiration à partir de la fin des années 1680646. Le canon de Syrinx, diaphane, élancé et très délicat, au visage fin au nez légèrement pointu, est caractéristique de nombreux tableau de Boullogne, comme par exemple Zéphyr et Flore, Pluton enlevant Proserpine ou Le Triomphe de Vénus647. Ce dernier tableau partage avec Pan et Syrinx un même traitement des chairs, brunes pour les hommes avec une musculature marquée par des ombres en courbes mais sans hypertrophie et diaphanes et fermes pour les femmes, avec une poitrine menue et haute, la musculature légèrement soulignée par les jeux d’ombres et une touche plus lisse et délicate. Cela ajouté à la proximité stylistique du tableau avec les drapés de Vénus à sa toilette commandé en 1688 pour Trianon et avec les dessus de porte réalisés à partir de 1707 pour le Comte de Toulouse inviteraient à dater Pan et Syrinx de la fin de la carrière de l’artiste, vers 16851710, lorsque sa production se caractérise par un accroissement des reprises de compositions antérieure 644 Fig.193
Fig.190, 194 et
187
646 Dijon, 2014, Boullogne, p.30 647 Fig.191
,
195-196 648 Fig.187, 192, et 195 pour les œuvres exécutées pour le comte de Toulouse ; Dijon, 2014, Boullogne, p.32 et p. 35 pour le recyclage des compositions
645 157 45
COYPEL Antoine (Paris, vers 1661 – Paris, 1722) La Colère d’Achille Vers 1718 Huile sur toile H. 351 cm ; L. 705 cm 649 Inv. CA 266 et 756 650 Hist. : 1736, Manufacture des Gobelins ; musée du Louvre ; 1872, dépôt de l’État au musée des Beaux-Arts de Dijon ; 15/09/2010 transfert de propriété définitif au MBAD. Bibl. : Papillon de La Ferté, 1776, p.582 ; Engerand, 1900, p.118 ; Fenaille, 1903-1904, t. III, pp.293-297 ; Dimier, 1928, pp. 126-127 et 131 ; Lossky, 1962, cat.25 ; Compin et Roquebert, 1986, t. V, p.232 ; Foucart-Walter 1986, p.232 ; Garnier, 1989, pp.177-178, cat.138 ; Berthelé, 2010, Annexes, p.115. Carton de tapisserie reprenant une ancienne composition de l’artiste, La Colère d’Achille fut probablement réalisée aux alentours de 1718, comme le suggèrent les Comptes du Bâtiments du Roi sur lesquels fut inscrite à la date du 22 décembre la somme de « 30 000 livres » donnée à l’artiste pour « six grands tableaux et divers dessins et restaurations pour les Gobelins ». Le carton resta aux Gobelins où il fut localisé en 1736, en 1794, en 1810 et dans l’inventaire Napoléon. Dans ce dernier et dans l’inventaire des Gobelins de 1810, l’œuvre fut attribuée à Charles Coypel et c’est sous cette attribution que le tableau entra dans les collections du musée en 1874651. Le carton se trouvait accroché en 1914 dans le pallier de l’Escalier, dit salle XIII652. Dans ses catalogues, Jeanne Magnin remarqua le tableau parmi les « rares » « bonnes fortunes » des envois de l’État depuis 1870653. L’auteur décerna au tableau un long commentaire élogieux pour la facture mais témoignant d’un regard moqueur pour la peinture d’histoire poussée aux extrémités du système académique : « Les principaux personnages, matamores de tragédie, mettent une emphase comique à agiter de grand bras, à rouler de gros yeux ; ils ont le panache et ils ont l’accent ; on se défie, on s’invective parmi les satins qui luisent joyeusement en un bouquet Les différents catalogues ne s’accordent pas sur les dimensions de l’œuvre. Pour la hauteur, Magnin indique 348 cm en 1914, Quarré 351 cm en 1968 et Guillaume 343 cm en 1981. Pour la largeur Magnin indique 306 cm en 1914, Quarré 705 cm en 1968 et Guillaume 585 cm en 1981! Le tableau étant roulé il n’a pas été possible de vér ifier. Les dimensions proposé par Quarré ont été retenues car étant les plus proches de l’inventaire des Gobelins en 1810 (AMN, 40 DD, Inventaire des Gobelins, peinture, n°80, 350 par 708, cité par Garnier-Pelle, 1989, p.117, cat.138). 650 Le carton comporte deux numéros d’inventaire. Le premier correspond au catalogue de 1883. Le second lui a été donné en tant qu’œuvre entrée au musée entre 1874 et 1979. 651 A.N, O 2776 ; BNF, Cab. Mss., Ms. Français 7838 ; AMN, 40 DD, Inventaire des Gobelins, peinture ; Ibid, n°80 ; cités par Garnier-Pelle, 1989, p.177, cat. 138 652 Magnin, 1914, p.117-118 653 Magnin, 1914, « Avis au lecteur » 649 158 de couleurs tendres. »654. Dans un état de conservation médiocre, le carton regagna les réserves, probablement à l’issue de la Seconde Guerre Mondiale. « Comique » pour l’œil de la première moitié du XXe siècle, La Colère d’Achille faisait partie d’une tenture de cinq tapisseries inspiré de l’Iliade qui, tout comme la tenture de l’Ancien Testament, illustrait la maîtrise d’Antoine Coypel et son statut de peintre d’histoire héritier de Le Brun655. À l’instar de la tenture de L’Ancien Testament, la série de L’Iliade reprenait plusieurs compositions antérieures, dont La Colère d’Achille et Les Adieux d’Hector et Andromaque, réalisés autour de 1710 pour le duc d’Orléans656. La réalisation des cartons fut entreprise à partir de 1717 et achevée en 1730 après la mort de l’artiste. Coypel, déjà malade en 1717, fut effectivement assisté de son fils CharlesAntoine mais les cartons de La Colère d’Achille et de son pendant Les Adieux d’Hector à Andromaque furent bien peints de sa main657. La reprise de ces deux sujets n’était pas anodine. En 1718 s’achevait la Querelle d’Homère pendant laquelle s’opposèrent d’un côté Antoine Hondar de La Motte et les Modernes, partisans d’une traduction améliorée d’Homère, et de l’autre Madame Dacier suivit des Anciens, privilégiant la pureté de la traduction. Coypel, en ami de Madame Dacier, réalisa en 1711 un frontispice sur le thème de la Colère d’Achille pour la nouvelle traduction de L’Iliade658. Ce passage était en effet la cible récurrente du parti de La Motte qui le trouvait peu digne de héros, de même que la scène des adieux d’Hector659. La reprise de ces deux sujets pour une tenture en 1717-1718, lorsque la querelle pris fin sur une victoire des Modernes, pourrait apparaître comme une forme de so de Coypel à Madame Dacier et ses partisans et fut probablement validée par le Régent, possesseur des deux originaux660. La reprise était d’autant plus habile que La Colère d’Achille avait permis à Coypel de déployer une rhétorique des passions directement héritée de Le Brun, dont les Modernes admiraient les Batailles d’Alexandre661. Le visage d’Achille correspond en tout point à la description de la colère donnée par Le Brun : « Les yeux rouges & enflammés [...] les narines paraîtront ouvertes et élargies [...] la lèvre du dessous surmontera celle du dessus, laissant les coins de la bouche peu ouverts, formant un ris cruel cruel et dédaigneux. », tandis que sa posture et l’épée au fourreau
654 Magnin, 1914 et 1933, p. 117-118 Cat.29 656 Fig.197 ; Tours, musée des Beaux-Arts, Inv. 1803-1-8 657 Garnier-Pelle, 1989, p.176-177, cat. 137 et 138 658 Fig.198 ; Itti, 2015, article en ligne 659 Paris, 2001, Passion, p. 180, cat.50 660 Garnier-Pelle, 1989, p.177, cat.138 661 Paris, 2001, Passion, p.180, cat.50 655
159 entrent en résonnance avec la définition de la fureur donnée par Ripa 662. Ce faisant, l’artiste montrait la valeur d’Achille, sa furor, c’est-à-dire la colère déraisonnée, qui est dans sa démesure caractéristique des héros. La scène n’est plus ridicule, mais devient une leçon dans la droite ligne de Le Brun. Par une série de signe, l’artiste révèle l’état intérieur de l’âme qui bien que refoulé sous l’action de la déesse est paradoxalement extériorisé et pleinement visible aux yeux du spectateur663. Le geste de tirer l’épée signifiait d’ailleurs à la fin du siècle « faire voir dans l’action extérieure, ce que l’on était dans le secret de la pensée»664. Ce prima de l’expression est également perceptible dans le flou entourant le sujet de l’œuvre. Emmanuel Coquery a montré comment, à partir des années 1680, la recherche de l’expressivité comme absolu a mené la peinture à la perte du sujet. L’auteur rappelle qu’en 1715 l’abbé Du Bos écrivait que les spectateurs avaient besoin d’un cartel pour comprendre les sujets des tableaux qui leur étaient présentés665. Ainsi, pour La Colère d’Achille, Mariette identifiait le tableau comme la scène d’ouverture de l’Iliade où Achille refuse de perdre Briséis tandis que le Mercure de France de juin 1750 interprétait la composition comme le moment où Achille comprit qu’Agamemnon souhaitait immoler Iphigénie666. La scène choisit par Coypel est bien l’ouverture de L’Iliade identifiée par Mariette. Sont reconnaissables Apollon frappant les Grecs de la peste depuis une nuée à droite de la composition et le devin Calchas au centre, qui révéla qu’Agamemnon devait rendre la captive Chryseis à sa mère pour que cesse le fléau. L’altercation entre le roi et Achille fait suite à la demande d’Agamemnon qui exigea du héros qu’il lui donne en compensation la captive Briseis. La représentation de la tête de Méduse sur le bouclier d’Athéna venant calmer le héros permet à la fois d’insister sur la colère de celui-ci tout en témoignant d’une fidélité au texte, Achille appelant la déesse « fille de Zeus qui tient l’égide »667. Soucieux des détails, Coypel représenta sur la droite Ulysse, reconnaissable à la figure d’Athéna sur son bouclier et sur la gauche Nestor dont la vieillesse indique la sagesse. Les couleurs sont également au du récit et de l’expression. Achille et Agamemnon sont vêtus des mêmes rouge et or montrant leur égal emportement, tandis que les vêtements de Calchas reprennent les couleurs de la déesse marquant ainsi sa proximité avec les dieux. La composition pyramidante, par sa clarté, sert aussi le récit. 662 Cité dans Paris, 2001, Passion, p. 180, cat.50 Sur le « paradoxe ousiologique de la colère » dans le tableau de Coypel voir Guillamaud, 2016 664 Fontaine, 1691, article épée, p.226, cité dans Paris, 2001, Passion, p.180, cat.50 665 Paris, 2001, Passion, p.34 666 Homère, Iliade, Chant I ; Garnier-Pelle, 1989, p.176-177, cat.137 667 Homère, Iliade, Chant I ; Guillamaud, 2016 663 160
L’ensemble de ces éléments, associé au potentiel décoratifs des armes et de la palette, justifia le succès de l’œuvre. La composition fut gravée et la tenture tissée deux fois. Bien plus tard, Tischbein repris l’attitude des deux belligérants et d’Athéna pour créer une composition sur le même sujet en 1776668.
La
longévité du succès des compositions de Coypel, que ce soit Le Sacrifice
de
Jephté ou
La
Colère
d’
Achille,
témoigne
a
insi de
la permanence
du prestige de la grande peinture d’histoire tout au long du XVIIIe siècle. 668 Fig.199
;
Garnier-Pelle
,
1989, p
.177
, cat
.138
161 46 RIVALZ Antoine (Toulouse, 1667 – Toulouse, 1735) Ajax traîne hors du temple Cassandre, fille de Priam et d’Hécube Vers 1695-1710 Huile sur papier marouflée sur toile
H.
53,5 cm
; L. 65,5
cm
Inv. J 58 Hist. : 14-24/11/1894, Dijon, vente Baudot, n°124? ; 1902, Brazey, vente du Mesnil ; Dijon, collection Albert Joliet ; entre 1924 et 1928, don d’Albert Joliet au MBAD. Bibl. : Schnapper, 1980, pp.53-58 ; Budapest, 1984, A Francia Festeszet, cat.40 ; Dublin, 1985, Classicisme, p.12 ; Toulouse, 2001, Le temps du caravagisme, p.53 ; Toulouse, 2004, Rivalz, cat.127.
Albert Joliet, conservateur au musée des Beaux-Arts de 1892 à sa mort en 1928, avait amassé une collection d’œuvres d’art dont il fit don au musée à partir de 1924. L’ensemble de 147 objets fut exposé dès 1929 dans cinq salles spécifiques669. D’après l’étiquette au dos de l’œuvre, Ajax trainant Cassandre avait été acquis en 1902, à Brazey, lors de la vente Du Mesnil. L’étiquette précise que l’esquisse représente les « Horaces et Curiaces par David». L’esquisse avait probablement été acquise par Du Mesnil lors de la vente Baudot en novembre 1894 ou le numéro 124 est décrit comme suit : « DAVID (Louis), dans le genre de. Un enlèvement (esquisse). Devant un portique, une jeune femme est arrachée des bras de son père par des soldats, à gauche, un combat acharné. ». Les dimensions des deux œuvres diffèrent légèrement (47 par 60cm pour l’œuvre de la vente Baudot)670. Cette attribution à David et son entourage prévalut jusqu’à ce que Sylvain Laveissière rende l’œuvre à Antoine Rivalz en 1978. Mis en valeur à l’occasion de la rétrospective organisée à Toulouse en 2004, Antoine Rivalz fut un peintre singulier, témoignant de la vitalité et de l’indépendance du foyer artistique de Toulouse à la fin du XVIIe siècle. Son art se caractérise par une synthèse entre baroque et classicisme, une indépendance vis-à-vis de la production parisienne, un goût pour la peinture d’histoire et Poussin671. L’erreur d’attribution d’Ajax trainant Cassandre témoigne de ce goût tardif pour l’esthétique classicisante et rappelle comme pour La Colère d’Achille que la tradition du Grand Genre reprise par les néoclassiques ne 669 Dijon, 2000,
Collections
,
p
.224
DO J
58,
note de Marguerite Guillaume le 25 juin 2015 et Catalogue de vente, Dijon, vente Baudot, 14-24 novembre 1894, lot 110. s’était pas arrêtée à la mort de Le Brun672. La sobre monumentalité du cadre architectural qui assoit la composition, le placement des figures en frise par plans successifs et le tumulte évoquent ici le mode de construction de Poussin comme dans La Peste d’Ashdod et rappellent le Saint Pierre guérissant les malades de son ombre de l’artiste673. Le soin apporté au costume, notamment les casques, renforce l’aspect classique de l’œuvre. Le tableau a été comparé par Stéphane Lojkine à un tableau de Ricci représentant Persée brandissant la tête de Méduse devant Phinée674. Le second livre de l’Énéide semble avoir été une des sources de prédilection de l’artiste, qui exécuta une Mort de Priam, un Adieux d’Hector et Andromaque, un Sac de Troie et un dessin de Pyrrhus dans le palais de Priam675. Mais bien que le texte de Virgile ait été une source d’inspiration majeure pour les peintres au XVIIe siècle, l’enlèvement de Cassandre n’avait quasiment pas été représenté avant le travail de Rivalz. L’esquisse conservée à Dijon s’insère dans une série de plusieurs travaux révélateurs du mode de production de l’artiste. D’Ajax trainant Cassandre sont connus l’esquisse de Dijon, deux dessins préparatoires du musée Paul Dupuy à Toulouse et une composition peinte définitive, conservée à Rouen et longtemps attribuée à Suvée676. Quelques variantes séparent les trois œuvres. Un des dessins du musée Paul Dupuy fut conçu comme le pendant d’un dessin représentant Les Mégariens dévorés par les lions, et remploie les figures des principaux assaillants d’un Meurtre de Priam probablement réalisé avant 1695, à Rome677. Ces figures sont absentes de la version peinte rouennaise, suggérant l’existence de deux compositions distinctes678. Néanmoins l’ordonnancement des soldats autour du corps de Cassandre dans l’esquisse de Dijon et le tableau de Rouen évoque aussi le riccordo toulousain du Meurtre de Priam679. La version dijonnaise est extrêmement proche du tableau rouennais, qui se distingue par un éclairage nocturne et par une plus grande violence, un des ravisseurs de la jeune femme la tirant cette fois par les cheveux et à l’aide de ses deux bras. Le type du soldat tendu dans son élan, souvent courbé et prêt à frapper, semble récurrent chez l’artiste. Ainsi, les deux défenseurs de Cassandre sont très proches de la figure masculine à l’arrière-plan de la Scène de Tragédie de Mâcon, pendant Cat.45 ; À Paris, la persistance du grand genre est également manifeste dans le travail d’Henri de Favanne, cf. Dublin, 1985, Classicisme, p.12. 673
Fig.200
;
Paris, musée
du
Louvre, Inv. 7276
674
Fig. 201; Utpictura18, notice en ligne 675 Toulouse, musée Paul-Dupuy, inv. 92-3-1 et 134 ; Toulouse, musée des Augustin, Inv. RO 983 ; Sotheby’s, Paris, 22 mars 2018, lot 44 676 Toulouse, musée Paul-Dupuy, Inv. 81-3-1 (nous n’avons pas trouvé de visuel exploitable) ; Fig.202 677 Fig.203-204 ; Toulouse, 2004, Rivalz, p. 147, cat.49 678 Idem, p.52 679 Fig.205
672
163 un temps donné à Guérin, tandis que l’affrontement des guerriers rappelle le duo de La Bataille remporté par les Tectosage sur le Roi Antiochus au musée des Augustins680. Il n’en est pas moins difficile de dater l’ensemble de ces œuvres, comme toutes celles réalisées par le peintre à la charnière de son départ de Rome et de son arrivée à Toulouse. Pour ce qui concerne les trois versions de Cassandre, Jean Penent, auteur de la monographie de l’artiste, propose avec prudence une réalisation autour de 1695-1710681. La pratique du pendant ayant été plus que récurrente chez Rivalz, il n’est pas exclus qu’une version peinte des Mégariens, où qu’une prise de ville puissent un jour être mises en rapport avec le tableau
de
Rouen ou
l’esquisse de Dijon682.
680 Fig.206-207 Toulouse, 2004, Rivalz, p.52 682 Toulouse, 2006, Changeux, p.156, cat.34
681 164 Peinture de l’histoire du roi 47 VAN DER MEULEN Adam Frans (Bruxelles, 1632 – Paris, 1690) Le Siège de Lille en 1667 Après 1686 Huile sur toile H. 47,8 cm ; L. 116,2 cm Inv. CA 152 His
t.
: Paris
,
collections
de
Louis
XIV ;
, envoi de l’État au MBAD ; 15/09/2010, transfert définitif de propriété au MBAD. Bibl. : Liste des tableaux et pièces de sculpture exposez dans la court du Palais-Royal, 1673, p.4 ; Lagier, 1842, p.50 ; Ris, 1861, t. II, p.370 ; Lavice, 1870, p.314 ; Ris, 1872, p. 147 et 468 ; Engerand, 1899, p.428, note 3 ; Engerand, 1900, p.632 ; Lille, 19858, FranceBelgique, cat.293 ; Paris, 1960, Paysage, cat.58 ; Vergnet-Ruiz et Laclotte, 1962, p.254 ; Morris, 1973, cat.41 ; Starcky, Gras et Meyer, 1992, pp.62-63 ; Tokyo, 1993, Nature, cat.63 ; Le Maire, 1993, pp.42-43 ; Dijon, 1998, Van der Meulen, cat. 100 ; Lille, 2000, Lille au XVIIe siècle, p.22 ; Bussière, 2000, pp.68-69 ; Lottin, 2003, p.78 ; Berthelé, 2010, Annexe, p.115. Envoyé au musée des Beaux-Arts en 1812, Le Siège de Lille fut inscrit comme un « beau » tableau dans le Catalogue de 1818683. Dans la seconde moitié du XIXe siècle il semble avoir joui d’une faveur particulière puisqu’il apparait après 1842 dans la liste des Tableaux les plus remarquables du Musée de Dijon684. L’œuvre fut également remarquée par Victor Hugo dans ses notes sur le musée de Dijon685. À partir de 1914, Le Siège de Lille fut accroché salle XX. S’il ne bénéficie pas de commentaire de Jeanne Magnin, le tableau fit néanmoins partit des très rares peintures de l’école française du XVIIe siècle citées dans le guide de Joliet et Mercier publié en 1922686. Après la Seconde Guerre mondiale, l’œuvre continua de jouir d’un certain prestige, son statut d’autographe lui assurant un accrochage dans la salle de peinture française des XVIIe et XVIIIe siècles en 683 AMD, 4R1 11, Catalogue, 1818 AMD, 4R1 79, Tableaux les plus remarquables du Musée de Dijon, entre 1842 et 1860 685 Catalogue de vente, Charavay, Bulletin d’autographe à Prix marqués, novembre 2001, n°46781 686 Joliet, 1922, p.20 684 165 1948 et en 1986687. Le tableau est désormais en réserve, comme toutes les autres représentations peintes de Louis XIV datant de son règne. Le Siège de Lille de Dijon est une œuvre de la main de Van der Meulen. Le peintre et Le Brun avaient suivi le roi lors de la guerre de Dévolution afin de réaliser des dessins pour des compositions vantant les victoires militaires du souverain. À la suite de la campagne, Van der Meulen réalisa une esquisse différente de la composition dijonnaise et qui servit de modèle pour la tenture de L’Histoire du Roi688. Une seconde composition fut réalisée en 1780 pour le château de Marly, à partir d’un dessin préparatoire conservé au Mobilier National689. Contrairement à la version de L’Histoire du Roi, une plus grande place y est accordée au paysage. C’est de cette version que découle le tableau de Dijon. La touche, le coloris, la maîtrise dans le rendu des chevaux assurent le caractère autographe du tableau, de format plus petit que l’œuvre exécutée pour Marly690. Cité en 1785 au château de Versailles, le tableau fit un temps partit des collections royales mais proviendrait originellement du château de Choisy. En effet, l’inventaire après décès de la marquise de Louvois dressé en 1715 contient la mention de tableaux de la main de Van der Meulen, commandés par Mademoiselle de Montpensier et reprenant les compositions des Conquêtes du roi peintes pour Marly. Ces répliques ornaient un cabinet du château de Choisy, dont la construction fut achevée en 1686. Les tableaux de Choisy furent de nouveau mentionnés dans l’inventaire des magasins de Choisy en 1757. Ce dernier document mentionne une Prise de Lille de dimension similaire à l’œuvre du musée des Beaux-Arts de Dijon691.
| 34,775
|
tel-03149165-The%CC%80se%20J.%20TRIBOLO.txt_31
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
L'expertise dans les procédures contentieuses interétatiques. Droit. Université d'Aix-Marseille, 2017. Français. ⟨NNT : ⟩. ⟨tel-03149165⟩
|
None
|
French
|
Spoken
| 2,405
| 4,189
|
TRUILHÉ-MARENGO (E.), « Contentieux sanitaires et environnementaux à l’OMC : La gouvernance confiée aux experts? », Revue Vertigo, 2009, Hors-série n°6, pp. 97-110. TRUILHÉ-MARENGO (E.), « Le recours à l’expertise par les juridictions internationales », Revue Experts, 2010, n°91, pp. 11-15. TRUILHÉ-MARENGO (E.), « Les règles de preuve face à l’incertitude scientifique » in MALJEAN-DUBOIS (S.) (dir.), Droit de l’Organisation Mondiale du Commerce et protection de l’environnement, Bruxelles : Bruylant, 2003, pp. 443-460. TRUILHÉ-MARENGO (E.), « Science, droit et expertise : les juridictions internationales au milieu du gué », Revue Experts, 2012, n°100, pp. 88-90. TRUILHÉ-MARENGO (E.), ALLBEURY (K.) « La preuve dans le règlement des différends à l’OMC : applications possibles en matière d’OGM? » in BOURRINET (J.), MALJEAN-DUBOIS (S.) (dir.), Le commerce international des OGM – Quelle articulation entre le récent Protocole de Carthagène sur la biosécurité et le droit de l’Organisation Mondiale du Commerce? Paris : La Documentation Française, 2002, pp. 285-303. VAN DE KERCHOVE (M.), « La vérité judiciaire : Quelle vérité, rien que la vérité, toute la vérité? », Déviance et société, 2000, vol. 24, n°1, pp. 95-101. VAN DE KERCHOVE (M.), « Vérité judiciaire et para-judiciaire en matière pénale : quelle vérité? », Droit et société, 2013, vol. 84, n°2, pp. 411-432. VECCHIONE (E.), « Locked-in scientific evidence : the WTO EC-Biotech dispute », working paper, Helsinki ESIL-ASIL Research Forum « Changing futures? Science and international law », 2009, disponible à l’adresse http://dx.doi.org/10.2139/ssrn.1628132 (consulté le 9 août 2012). 441 VERDROSS (A.), « L’excès de pouvoir du juge arbitral dans le droit international public », Rev. Dt Int’l & Lég. Comp., 1928, vol. 55, pp. 225-242. VERKERK (R.), « Comparative aspects of expert evidence in civil litigation », Int’l J. Evidence & Proof, 2009, vol. 13, pp. 167-197. VIÑUALES (J. E.), « Amicus intervention in investor-state arbitration », Disp. Res. J., 2006-2007, vol. 61, pp. 72-81. VIÑUALES (J. E.), « Legal techniques for dealing with scientific uncertainty in environmental law », Vanderb. J. Transn. Law, 2010, vol. 43, n°2, pp. 437-503. VIOLA (F.), « Herméneutique et droit », Archives de Philosophie du droit, 1992, tome 37, pp. 331347. VOETEN (E.), « Public opinion and the legitimacy of international courts », Theoretical Inquiries in Law, 2013, vol. 14, pp. 411-436. VUKAS (B.), « Règlement du Tribunal international du droit de la Mer – Questions choisies », Espaces et ressources maritimes, 1998, vol. 12, pp. 15-23. WARNER LA FOREST (A.), « Evidence and international and comparative law », in FITZGERALD (O. E.) (dir.), The globalized rule of law. Relationships between International and Domestic Law, Toronto : Irwin Law, 2006, pp. 367-392. WEIHOFEN (H.), « An alternative to the battle of experts : Hospital examination of criminal defendants before trial », Law and Contemporary problems, 1935, vol. 2, n°4, pp. 419-435. WHITE (G.), « The use of experts by the International Court », in LOWE (V.), FITZMAURICE (M.) (dir.), Fifty years of the International Court of Justice : Essays in honour of Sir Robert Jennings, Cambridge : Cambridge University Press, 1996, pp. 528-540. WILBERFORCE (R.), « Legal listening », The J. Royal Coll. of Gen. Practitioners, 1967, vol. 13, n°62, suppl. 3, pp. 3-9. WILLEMS (H. M.), « Treatment of customary international law and use of expert evidence by the Dutch court in the Bouterse case », Non-state actors and international law, 2004, vol. 4, n°1 pp. 6574. WILSKE (S.), GACK (C.), « Expert evidence in international commercial arbitration », Comp. Law Yb. of Int’l Bus., 2007, vol. 29, pp. 75-97. WITENBERG (J.-C.), « La théorie des preuves devant les juridictions internationales », RCADI, 1936-II, vol. 56, pp. 1-105. 442 WITENBERG (J.-C.), « Onus probandi devant les juridictions arbitrales », RGDIP, 1951, vol. 55, pp. 321-342. YAKEMTCHOUK (R.), « L’approche sociologique du droit international », RGDIP, 1974, vol. 78, n°1, pp. 5-39. YARNALL (M.), « Dueling scientific experts : Is Autralia’s Hot Tub method a viable solution for the American judiciary », Or. L. Rev., 2009, vol. 88, pp. 311-340. ZIADÉ (N. G.), « How many hats can a player wear : Arbitrator, Counsel and Expert? », ICSID Rev., 2009, vol. 24, n°1, pp. 49-64. ZOLLER (E.), « Observations sur la révision et l’interprétation des sentences arbitrales », AFDI, 1978, vol. 24, pp. 327-351. III. Dictionnaires ALLAND (D.), RIALS (S.) (dir.), Dictionnaire de la culture juridique, Paris : Lamy/PUF, 2003, 1649 p. BERNHARDT (R.) (dir.), Encyclopedia of public international law, Amsterdam : North Holland Publishers, 1992, 4 volumes. BLACK (H. C.), Black’s Law Dictionnary, St Paul : West Publishing Co., 1910, 2ème éd., 1325 p. CORNU (G.) (dir.), Vocabulaire juridique, Paris : PUF, 2016, 11ème éd., 1152 p. GUINCHARD (S.) (dir.), Lexique des termes juridiques 2015-2016, Paris : Dalloz, 2015, 23ème éd., 1118 p. KDHIR (M.), Dictionnaire juridique de la Cour internationale de Justice, Bruxelles : Bruylant, 1997, 235 p. MOUSSA (T.), Dictionnaire juridique de l’expertise. Matières civil e et pénale, Paris : Dalloz, 1983, 336 p. SALMON (J.) (dir.), Dictionnaire de droit international public, Bruxelles : Bruylant, 2001, 1198 p. WOLFRUM (R.) (dir.), The Max Planck Encyclopedia of Public International Law, Oxford : Oxford University Press, 2012, 2ème éd., 11724 p. (10 volumes). 443 IV. Autres LORD WOOLF, Master of the Rolls, Access to justice – Final Report to the Lord Chancellor on the civil justice system in England and Wales, 1996. LOUVEL (B.), Discours introductif lors du colloque commémoratif du trentenaire de la Compagnie des experts près la Cour de Cassation organisé le vendredi 2 octobre 2015 et intitulé « La vérité...sans doute. Vérité scientifique, vérité judiciaire » (en ligne sur le site de la Cour). MALJEAN-DUBOIS (S.), Synthèse du rapport du G.I.P. Droit & Justice, « Le droit de l’environnement comme exemple de la mondialisation des concepts juridiques : Place et rôle des juridictions internationales et constitutionnelles », mai 2008, 6 p. 444 Index alphabétique 1083
- Abornement : 162, v. délimitation.
- Accusatoire (logique) : 6, 18, 19, 29, 195, 201, 256. - Bornage : 149, 176, v. délimitation. - Confiance : 76, 111, 117, 125 à 131, 154, 173 à 177, 222 à 224, 248, 259. - Consensualisme : 8, 135, 150, 239, 227 et s., 239, 243 à 247. - « Combats » d’experts : 59, 89, 128, 157, 200. - Compétence épistémologique : 46, 59, 97, 143, 153, 174, 185. - Délimitation : 52, 169, 181 à 188, 231. - Démarcation : 188, 228, v. délimitation. - Distinction common law/droit continental : 6, 18, 29, 72, 195, 214. - Droit au procès équitable : 61, 80 à 82, 84, 158 et s. - Enquête : 21 à 27, 30, 58, 251, 252. - Expert : -
•
définition positive : 3 à 6.
•
distinction expert-conseil : 59.
•
expert du tribunal : 30.
•
témoin-expert : 29, 59. • amicus curiae : 2, 52, 53. • experts-fantômes : 61, 171.
Expertise
• 1083 définition : 1, 4, 7. Le présent index renvoie aux numéros des paragraphes pertinents de la thèse. 445 • histoire : 110 à 114, 203, 204, • expertise conjointe : 197, 198, 215. - Erreur : 60, 127, 134, 154, 171, 189, 251.
- Fait
: • construction du fait : 96 à 98, 188, v. interprétation. • distinction
droit-fait : 96, 97, 98, 169. - Formalisme : 161, 247, 198-199. - Hot tubbing : 89, 199, 258. - Impartialité : 18, 59, 81 à 83, 89, 153. - Incertitude : 115, 128, 171. - Indépendance : 59, 61, 81, 244. - Inquisitoire (logique) : 18, 30, 32, 72. - Interprétation : 96, 175, 183, 184. - Légitimité : - - • définition : 67 à 71. • du juge : 72 à 78, 85, 88, 100, 107, 117, 128 à 130. • de l’expert/de l’expertise : 176, 235, 239. Liberté : • du juge : 115, 128, 136 et s. • des États : 104, 105, 116, 139.
Office du juge : •
conception de l’office du juge : 18, 21 à 27, 30, 32, 45, 72, 130, 183. • délégation : 47, 94 à 100. - Peer review : 197, 200, 209. - Risque : 102, 103, 115. - Secret : 217 à 221. 446 - Science : • histoire : 4, 110 à 114, 231. • philosophie des sciences : 119 à 123, 176. - Technique : 148, 170, 176. - Vérité : • « objective » ou absolue : 18, 21, 33, 11, 207. • procédurale : 18, 195, 208. ................................................................................IX INTRODUCTION................................................................................................................................................................1 PARTIE I L’EXPERTISE, UN DISPOSITIF LIMITE D’ASSISTANCE AU JUGE DANS LE CONTENTIEUX INTERETATIQUE..............................................................................................................................27 TITRE 1 LA RECHERCHE DE LA VERITE................................................................................................................... 29 Chapitre 1 L’expertise, un dispositif classique de recherche de la vérité dans le contentieux interétatique.....................31
Section 1 La conception de l’office du juge dans l’ordre juridique international : illustration de la parenté entre le droit international et la tradition continentale...................................................................................................................................................31 §1 - L’office du juge, vecteur d’une conception du procès....................................................................................... 32 §2 - La consécration d’une conception continentale de l’office du juge dans le procès international...................... 37 Section 2 L’influence de la conception continentale de l’office du juge sur la fonction et les modalités de l’expertise dans le contentieux interétatique........................................................................................................................................................................60 §1 - Les caractéristiques de l’expertise, résultante directe d’un choix quant à la manière de concevoir l’office du juge............................................................................................................................................................................. 60 §2 - Les caractéristiques de l’expertise dans le contentieux interétatique, fruit d’une conception continentale active de l’office du juge international................................................................................................................................. 71
Chapitre 2 L’expertise, un dispositif bridé de recherche de la vérité dans le contentieux interétatique...........................83
Section 1 Le dilemme des états face à l’expertise..............................................................................................................................83 §1 - L’expertise et l’importance de la recherche de la vérité dans le contentieux interétatique................................ 84 §2 - L’expertise et les risques d’atteinte à la souveraineté et aux intérêts de l’Éta 88 Section 2 La souveraineté de l’état, limite structurelle à l’efficacité de l’expertise dans le contentieux interétatique....................93 §1 - La volonté de contrôle de l’expertise par l’État................................................................................................. 93 §2 - Les conséquences du contrôle exercé par l’État sur l’expertise.......................................................................
109 TITRE 2 LA QUETE DE LEGITIMITE........................................................................................................................ 123 Chapitre 1 L’expertise, vecteur de légitimité pour le juge international.........................................................................
125 Section 1 La légitimité, un enjeu de taille pour le juge international..............................................................................................125 §1 - Le besoin de légitimité au regard de la conception active de l’office du juge héritée de la tradition continentale.................................................................................................................................................................................. 126 §2 - Le besoin de légitimité au regard des autres caractéristiques du contentieux interétatique............................. 132 Section 2 L’apport de l’expertise en matière de légitimité...............................................................................................................138 §1 - L’expertise, vecteur d’équité dans le cadre de l’instance internationale.......................................................... 138 §2 - L’expertise, gage de qualité de la décision juridictionnelle internationale...................................................... 149 Chapitre 2 L’expertise et les risques de « délégitimation » du juge international..........................................................
157 Section 1 Le recours à l’expert et l’effacement des limites de la compétence du juge....................................................................157 §1 - La délégation par le juge international de son pouvoir à l’expert.................................................................... 158 449 §2 - Le dépassement par le juge international de sa compétence du fait de l’expertise.......................................... 169 Section 2 Le recours à l’expert, source d’incertitude dans la décision du juge...............................................................................179 §1 - L’expertise et l’attrait apparent de la certitude pour le juge international........................................................ 179 §2 - L’expertise et les risques d’incertitude pour le juge international....................................................................
193 PARTIE II L’EXPERTISE, UN DISPOSITIF FONCTIONNEL D’ASSISTANCE AUX PARTIES DANS LE CONTENTIEUX INTERETATIQUE.....................................................................................................................209 TITRE 1 L’ELABORATION D’UN REGLEMENT OPERATIONNEL DU DIFFEREND........................................................ 211 Chapitre 1 L’expert en tant que juge ou arbitre du différend.........................................................................................
213 Section 1 La fonction juridictionnelle de l’expert ou la conciliation entre expertise et souveraineté de l’État..............................213 §1 - Les limites résultant pour l’expert de la volonté des parties............................................................................ 214 §2 - Les limites résultant pour l’expert des besoins des parties............................................................................... 224 Section 2 La fonction juridictionnelle de l’expert ou la conciliation entre expertise et efficacité du règlement juridictionnel des différends................................................................................................................................................................................................231 §1 - L’expert-juge (ou expert-arbitre), valeur ajoutée quant à la qualité de la décision.......................................... 232 §2 - L’expert-juge (ou expert-arbitre), atout pour une bonne administration de la justice...................................... 237
Chapitre 2
L’expert et la mise en œuvre de la décision..................................................................................................247 Section 1 L’expert-exécutant, source de réassurance pour les parties...........................................................................................247 §1 - L’influence limitée de l’expert sur la prise de décision, gage de neutralité de l’expertise.............................. 248 §2 - Le confinement de l’expert à la dimension technique, gage de confiance dans l’expertise............................. 255 Section 2 L’expert-exécutant, source d’assistance pour les parties................................................................................................262 §1 - Une fonction « d’opérationnalisation » des décisions juridictionnelles........................................................... 262 §2 - Une aide à l’exécution des décisions juridictionnelles.....................................................................................
271 TITRE 2 LA POURSUITE DU DIALOGUE INTER PARTES............................................................................................. 281 Chapitre 1 L’expert comme vecteur de communication et d’échange dans les procédures contentieuses interétatiques................................................................................................................................................................................283
Section 1 Un cadre
apaisant
pour le recours à l’expert...
................................................................
................................................
283
§1 - L’institution d’une collaboration efficace entre les acteurs du procès............................................................. 284 §2 - L’émergence d’une vision démystifiée de la science dans le prétoire............................................................. 299 Section 2 Un renouvellement productif de la fonction d’expert.....................................................................................................308 §1 - Une fonction de prévention de la dégradation du différend............................................................................. *** Dealing with scientific issues is nowadays a major concern in inter-state disputes : beyond the question of costs – be it in time or money – these issues are often decisive for States in succeeding to defend their case and they are no less critical for international tribunals when it comes to promote their legitimacy. Since the age of the Enlightenment, it has indeed been generally accepted that science possesses extraordinary qualities for the pursuit of the truth (in the widest sense one can give to this word) and it has therefore been perceived as a very powerful and precious instrument, mostly in the naturally decentralized international legal order. However, one cannot but notice the deep disenchantment science has been giving rise to over the last decades : the multiplication of sterile expert battles in court has frequently induced an undesirable loss of time during trials as well as a growing feeling of mistrust. As destabilizing as this reality may be in the particular context of the maintenance of the peace, it would nevertheless be a mistake to deny the place and relevance of science in the settling of inter-state disputes. This study will indeed show that experts are actually never as useful for international tribunals as they can be when they are deprived of their alleged (and misleading) capacities for perfect objectivity ; under certain circumstances, they will even be shown to possess a real power for relieving pressure and a capacity to promote appeasement between the litigants, thus making it easier for them to reach an amicable settlement of their conflict.
| 5,748
|
tel-02831327-mottet2005.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Transformations des systèmes d'élevage depuis 1950 et conséquences pour la dynamique des paysages dans les Pyrénées : Contribution à l’étude du phénomène d’abandon de terres agricoles en montagne à partir de l’exemple de quatre communes des Hautes-Pyrénées. Sciences du Vivant [q-bio]. Institut National Polytechnique (Toulouse), 2005. Français. ⟨NNT : 2005INPT021A⟩. ⟨tel-02831327v2⟩
|
None
|
French
|
Spoken
| 7,131
| 10,902
|
En ce qui concerne Beaucens, nous avons choisi de ne pas compléter l’échantillon avec cette commune. Ce complément nous aurait permis de couvrir un territoire continu puisque Beaucens est situé entre Villelongue et ArtalensSouin. Mais le territoire de Beaucens est particulier. Il se compose d’une partie importante de terrain plat en grandes cultures à proximité du Gave, d’un petit terroir de pentes privées, dont une partie non négligeable (environ 1/5) est détenue par les thermes et non agricole, et enfin, d’une grande partie d’estives et de communaux gérés par le groupement pastoral. La partie de versant que l’on aurait atteinte par des enquêtes en exploitation est donc relativement faible. De plus, sa dynamique agricole et économique est très différente de celles des autres communes d’après la typologie communale puisque c’est une commune fortement tournée vers le tourisme. Nous avons donc décidé de ne pas compléter l’échantillon avec l’étude de Beaucens. Cette décision a des conséquences pour la suite des analyses : je ne pourrai pas parler de dynamique de versant mais bien de dynamique sur un versant. Figure 14 : Le versant du Davantaygue et les quatre communes de ma zone d’étude - 47 -
Chapitre 2
:
Démarche
général
e
:
cadre
théorique
, mé
thode
et
dispositif d’étude 2. Un protocole d’enquête spatialisée en 2 passages
Comme nous l’avons vu, les données à collecter pour répondre à ma question de recherche sont nombreuses, de nature différente, et relèvent de deux niveaux d’organisation différents relatifs aux deux entrées retenues, l’exploitation et le territoire. Ma question de thèse demande d’articuler la collecte d’informations sur le fonctionnement global et technique des exploitations et son évolution depuis 1950 et celle d’informations précises sur les pratiques actuelles et passées d’utilisation des parcelles au sein de ces exploitations. La conception du protocole d’enquête et d’analyse de données a relevé d’un travail d’équipe. Elle s’est appuyée fortement sur les travaux antérieurs d’A. Gibon sur la durabilité de l’élevage dans les Pyrénées Centrales (Gibon, 1994b ; Gibon, 1999) et sur des travaux préliminaires effectués dans le cadre de la mise de place du programme interdisciplinaire de recherche sur le boisement spontané (Cantala, 2002 ; Toillier, 2002). Dans la conduite de cette enquête, j’ai bénéficié de la collaboration d’une étudiante de DAA qui a participé aux travaux de l’équipe en 2003 (Marcadet, 2003). La mise au point du protocole de gestion des données s’est pour partie inscrite dans le développement d’un Système d’Information Géographique global de l’équipe (Ladet & Gibon, 2004).
2.1. Mise au point du protocole d’enquête
Le protocole de collecte des données est basé sur une enquête en deux temps. Un premier passage relève du niveau de l’exploitation et porte sur la famille et le fonctionnement global de l’exploitation, ses caractéristiques générales et son historique. Il repose sur un questionnaire semi-directif organisé en différentes sections thématiques que nous avons présentés dans le Tableau 1 (II 4.). Sa conception s’est appuyée sur les questionnaires mis au point par l’URSAD Toulouse pour des travaux antérieurs (INRA-SAD Toulouse, 1994; 2001). Les critères correspondants sont présentés dans le Tableau 3. Un deuxième passage porte sur une enquête détaillée sur le parcellaire et son utilisation (Tableau 4). L’objectif est de collecter des informations détaillées sur les caractéristiques des parcelles agronomiques, leur gestion et l’histoire de leur utilisation depuis 1950. L’entretien est basé sur un ensemble de supports graphiques représentant l’ensemble des parcelles cadastrales de l’exploitation sur fond de carte topographique IGN 1/25 000 et de photo aérienne (voir exemple Figure 15). Ces supports ont été confectionnés par S. Ladet, l’ingénieur informatique du laboratoire et un de ses collaborateurs, à partir des déclarations PAC et des registres parcellaires de la MSA des exploitations communiqués par les exploitants lors du premier passage. La liste de parcelles de l’exploitation est saisie dans une base de données Access® (voir plus loin) couplée avec un SIG qui permet d’éditer l’ensemble des supports graphiques nécessaires. Chapitre 2 : Démarche générale : thode
Tableau 3 Premier passage et collecte des données thématiques au niveau de l’exploitation Critères Thème Composition de la famille Orientations des productions Caractéristiques générales de Sources de revenu l’exploitation Bâtiments Foncier et parcellaire Utilisation de la surface totale Répartition de la surface par type d’utilisation Gestion des fourrages et conduite Achat/vente de fourrages Pratiques de récolte et de fertilisation des surfaces fourragères Pour chaque espèce : Effectif Type et conduite du matériel animal Conduite de la reproduction Troupeaux Types de produits et commercialisation Conduite de l’alimentation Pratiques d’estivage, d’hivernage, de pâturage Prime à l’herbe, ICHN, PMTVA, PSBM... Primes et subventions Périodes de chaque type de tâche Organisation générale du travail Périodes de pointe sur l’exploitation Parcellaire Mode de faire-valoir Atouts et contraintes de Utilisation des terres l’exploitation Cheptel Acquisition/cession de parcelles Orientations de production Projets de développement Matériel... Activité non agricole Installations successives Historique et perspectives de Modifications structurelles Evènements particuliers l’exploitation Perspectives de successions
Au début de l’entretien, un bilan des parcelles de l’exploitation est réalisé et les supports graphiques sont complétés avec les parcelles éventuellement manquantes (non déclarées à la PAC ou à la MSA). Pour collecter les données historiques, nous avons décidé de partir de l’état actuel (2003) et de remonter le temps en relevant les dates de changement. Par exemple, pour l’histoire de l’utilisation agricole d’un pacage de 2003, nous avons cherché à savoir depuis quand la parcelle était utilisée en pacage. Si la parcelle était un pré de fauche jusqu’en 1970, nous relevons cette date et ons encore jusqu’à 19501. 1 Les questionnaires d’enquête sont disponibles sur demande à l’UMR Dynafor - 49 - Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Figure 15 : Les supports d’enquête sur le parcellaire et son utilisation (a) parcellaire de l’exploitation sur fond de photo aérienne. En rose sont figurées les limites des parcelles cadastrales, en rouge les parcelles de l’exploitation. (b) parcellaire de l’exploitation sur fond de carte 1/25 000 IGN. En noir sont figurées les limites des parcelles cadastrales, en rouge les parcelles de l’exploitation. (c) parcellaire vierge de l’exploitation sur lequel sont collectées les informations. En gris sont figurées les limites des parcelles cadastrales, en noir les parcelles de l’exploitation avec leur numéro de cadastre.
Tableau 4 Deuxième passage et collecte des données thématiques au niveau de la parcelle
Variables Thème Date d’acquisition et mode de faire valoir Rattachement de la parcelle à l’exploitation Organisation de la gestion globale Délimitation des parcelles agronomiques du parcellaire Types d’utilisation du sol + historique depuis 1950 Pratiques d’utilisation du sol et Itinéraire technique + historique depuis 1950 historique Circuit de pâturage des différents lots Organisation du pâturage Accès, éloignement, point d’eau... Caractéristiques structurelles Pierrosité, arbres isolés, mouillère, pente... Contraintes agronomiques - 50
- Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude 2.2. Déroulement de l’enquête
L’enquête auprès des exploitants comporte deux interviews conduites par un binôme d’enquêteurs. La durée du premier passage varie de 1 à 2 heures, en fonction de l’interlocuteur et de la complexité de l’exploitation. Le second passage a lieu une dizaine de jours plus tard, un temps de préparation de supports graphiques étant nécessaire. Ce deuxième passage dure en moyenne de 2 à 3 heures, selon le nombre de parcelles dans l’exploitation. Notons que l’utilisation des supports graphiques a été très efficace et facile. Les exploitants se sont tous trouvés très à l’aise avec ces documents qui leur rappelaient les copies du cadastre sur lesquelles ils avaient l’habitude de repérer leurs parcelles. Les enquêtes ont été effectuées avec C. Marcadet de mars à juin 2003 dans les 4 communes retenues. Nous n’avons eu que 3 refus d’enquête (voir Tableau 5) et avons donc enquêté 40 exploitations et plus de 1700 parcelles cadastrales (environ 745 ha).
Tableau 5 Répartition des exploitations enquêtées en 2003 sur les quatre communes de la zone d’étude Artalens- VierSt Total Villelongue Souin Bordes Pastous EA dont le siège se situe sur la commune EA ayant des terres sur la commune 6 10 5 10 31 (1) 2 5 2 8 (siège à St Pastous) Total 6 12 10 12 40 Nombre EA RA 2000 (source Agreste) 6 14 6 16 42
Figure 16 : L’enquête en exploitation en 2003 A gauche : l’étudiante stagiaire en entretien avec de jeunes agriculteurs de la commune de Vier-Bordes. A droite : entretien pendant la garde du troupeau, commune de Saint Pastous. 3. L’organisation des données recueillies: plusieurs bases de données relationnelles
L’enjeu de l’organisation des données collectées au cours de l’enquête dépasse le cadre strict de ma thèse. Comme nous l’avons vu, l’équipe de recherche a fortement investi dans la constitution d’un système coordonné de gestion des données entre disciplines. Dans l’organisation des données d’enquête, j’ai à la fois travaillé à la création de bases de données relationnelles spécifiques à mes travaux et collaboré à la création de la base de données spatialisées de l’équipe.
3.1. Les informations relevant du niveau de l’exploitation
Le premier passage dans les exploitations nous a permis de recueillir un ensemble de données sur la famille et le fonctionnement global de l’exploitation, ses caractéristiques générales et son historique. Ces données ont été stockées dans une base de données Access® que j’ai organisée en tables thématiques. Ces thèmes résultent de mes choix méthodologiques d’approche de la diversité des exploitations (cf Chap 2. II.). Toutes les tables thématiques sont reliées par une clé primaire, correspondant au numéro de l’exploitation. La figure 17 présente la structure de cette base de données que j’appelle Exploitations. L’ensemble des variables et leurs définitions (dictionnaire de la base) est présenté en Annexe 1. Famille
Caractéristiques structurelles de l’exploitation (données sur le chef d’exploitation, la composition de la famille, la main d’œuvre familiale) (SAU, surface totale, mode de faire valoir, orientations de production, accueil...) Conduite des troupeaux (génétique, renouvellement...) Utilisation des terres de l’exploitation (surface par type d’utilisation) Valorisation des produits issus des troupeaux Gestion du système fourrager (types, quantité, qualité...) (général: constitution et gestion des stocks, bovins et ovins: gestion du pâturage) Autres production (caprins, équins...)
Figure 17 : Organisation de la base de données Exploitations sous Access® - 52 -
Chap
itre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
3.2. Les informations relevant du niveau de la parcelle
L’étude des relations entre les pratiques agricoles d’utilisation de l’espace et les dynamiques des écosystèmes et des paysages est un thème central des recherches de l’équipe dans de laquelle j’ai fait ma thèse. Celle-ci a pour cette raison fortement investi dans la constitution d’un système de bases de données relationnelles associées à un SIG qui permette de gérer des données spatiotemporelles en provenance de diverses disciplines (Ladet & Gibon, 2004). L’organisation des données collectées au cours de l’enquête s’est ainsi inscrite dans un objectif plus général que celui de mon travail personnel. J’ai de ce fait participé au travail de développement de la base de données agronomiques de l’équipe, entrepris avant le début de ma thèse, en même temps que j’ai constitué des bases de données spécifiques pour mes travaux : base de données « Exploitations » que je viens de présenter ; base de données « Parcelles ». Je présenterai ici les fondements et l’état d’avancement du développement de la base générale de données agronomiques spatialisées de l’équipe, avant de présenter la base de données que j’ai créée avec l’aide de C. Marcadet pour structurer l’enregistrement et l’exploitation d’informations complémentaires. Notre enquête a généré un très grand nombre de données thématiques pour chaque parcelle cadastrale. La parcelle cadastrale constitue à la fois l’unité de base retenue par l’équipe pour constituer sa base de données agronomiques spatialisées et l’unité élémentaire que j’ai sélectionnée pour l’étude des changements de l’utilisation de l’espace au niveau du territoire sur la période 1950-2003. Par ailleurs, une partie des données collectées relève du niveau d’organisation de la parcelle agronomique. C’est le cas notamment des pratiques actuelles de gestion du parcellaire et de certaines caractéristiques structurales de la parcelle recueillies pour les éclairer (accès, point d’eau, éloignement...).
3.2.1. L’organisation et la gestion des données agronomiques spatiotemporelles dans la base de données spatialisées de l’équipe
La base de données agronomiques spatialisées de l’équipe a été conçue pour permettre non seulement de conserver et gérer les données sur les pratiques agricoles de gestion de l’espace collectées à un instant t mais aussi d’articuler entre elles les données provenant de campagnes de terrain ultérieures. L’équipe s’est fondée sur une étude bibliographique préalable des principes utilisés pour leur conception (Toillier, 2002). La création d’une base de données spatiotemporelles de ce type est en effet un investissement important, et cette problématique, bien que récente, est en plein essor du fait notamment de l’ croissante des questions agri-environnementales. Les travaux ont - 53 - Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude conduit à identifier 3 types principaux de méthode pour traiter de l’information spatio-temporelle (voir Tableau 6). La première a pour principe de produire une image de la base de données spatiales pour chaque date choisie. La deuxième croise les tables thématiques de toutes les entités spatiales définies chaque jour et permet d’obtenir l’unité spatiale élémentaire d’utilisation. Enfin la troisième présente une forme de gestion par mutation : elle ne garde que les changements affectant les entités spatiales, pas les états antérieurs. Selon la méthode choisie, les analyses possibles seront différentes, mais, dans tous les cas, l’instrumentalisation informatique est très lourde. Les chercheurs de Dynafor, après avoir conduit l’analyse de leurs besoins, ont choisi de travailler sur des entités spatiales fixes (méthodes 1 et 3), ce qui est une façon de simplifier le problème. L’analyse des besoins quant à l’exploitation de la base de données parcellaires associée au SIG les a conduits à privilégier les fonctionnalités permettant (i) de suivre les évolutions des pratiques de gestion agricole des parcelles cadastrales et agronomiques, (ii) de suivre dans le temps les déformations du parcellaire des exploitations, c'est-à-dire rendre compte des cessions et acquisitions de parcelles et (iii) de gérer les relations entre exploitations juridiques et exploitations fonctionnelles (Ladet et Gibon, 2004). Ils ont également retenu la parcelle cadastrale comme entité spatiale de la base de données. Comme nous l’avons vu, cette dernière est le plus souvent indivisée au long du temps et lorsqu’un éleveur cède ou acquiert du terrain, ce sont des parcelles cadastrales qui sont le support de la transaction. Les parcelles agronomiques sont gérées grâce à leur composition en parcelles cadastrales. Les chercheurs de l’équipe ont décidé de concevoir la base de données selon la méthode Merise, c'est-à-dire un modèle entité-relation developpé sous le logiciel Access® (Degeilh & Stoechel, 2004; Ladet & Gibon, 2004). Ce modèle repose sur la description du monde réel par la définition d’objets appelés entités. Ces entités sont regroupées en catégories ou classe d’entité, ont un ensemble de propriétés ou attributs et sont reliées entre elles par des associations (voir figure 18). Les associations sont caractérisées par des cardinalités qui définissent le nombre minimum et le nombre maximum d’entités de la classe de départ reliées à une entité de la classe d’arrivée. Pour chaque attribut de chaque classe d’entité, les données sont codées sous forme de codes chiffrés, correspondant parfois aux données brutes (ex : dates). Le modèle conceptuel de données créé pour développer la base de données de l’équipe est présenté
figure 19. - 54 - Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Tableau 6 Les trois principales façons d’étudier des dynamiques spatiales en mobilisant un SIG illustrées à partir de trois problématiques agri-environnementales différentes (Toillier, 2002) Problématique agrienvironnementale Niveau d’intégration des dimensions spatio-temporelles Principe de fonctionnement du système informatique développé 1 Modélisation des dynamiques spatiales par construction de matrices de transitions entre les états du territoire et de chroniques d’événements spatiaux. Création de différentes couches pour les différents états historiques du territoire. Image de la base de données à chaque date choisie Représentations cartographiques grâce au SIG (ArcInfo) Problèmes : Redondance dans la structure de la base de données Pas de liaisons fonctionnelles entre les différentes parties temporelles Gestion
’une châtaigneraie dans les Cévennes : comment mieux appréhender les changements qui ont eu lieu dans le territoire et discuter de futurs possibles. ⇒pas de suivi continu dans le temps mais « photographie » du territoire à des dates données INRA Avignon cf Gautier, 1996
2 Simulation des interactions dynamiques de végétation dynamiques de pâturage par intersection généralisée de couches d’informations journalières (polygones saisis manuellement) pour reconstituer une séquence de INRA Avignon pâturage sur une saison cf. Lardon et al., ⇒ reconstitution a posteriori 2000 des entités spatiales qui se déforment par superpositions successives dont le résultat est l’obtention d’entités spatiales élémentaires qui ont subi les mêmes transformations
Projet
de
gestion
sylvo-
pastoral
: Brebis sur un domaine boisé du Causse Méjan 3
Les dynamiques spatiales prises en compte sont les changements affectant le parcellaire cadastral : regroupement, scission, etc. des parcelles cadastrales avec automatisation des mises à jours des données relatives à une entité Cemagref Bordeaux, spatiale au fur et à mesure des INRA Rennes modifications du parcellaire Filiation des parcelles cf. Scherman, 2002 ⇒ cadastrales mais pas d’enregistrement de l’historique thématique Connaître, gérer et prévoir l’activité agricole sur un bassin versant et ses conséquences. ( D Problème : Saisie manuelle de tous les polygones dans le SIG Gestion par mutation: mise à jour des attributs thématiques et des formes des entités spatiales = « Système d’Information à Références spatiales (SIRS), qui combine un SIG et un SGBD » Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Parcelle - Numéro - Section... Attribut Cardinalité 1-n Classes d’entité Possède Association - Date d’achat 1-n Propriétaire - Nom - Prénom - Adresse...
Figure 18: Exemple de modèle entité-relation pour construire une base de données spatialisées (source : Toillier, 2002)
Dans ce modèle, le temps est géré en donnant un attribut « date de début » à l’association correspondante. Par exemple, à une parcelle labourée de 1950 à 1965 puis transformée en pré de fauche est attribuée une valeur donnée de l’association « occuper » (voir Figure x) avec comme date 1950 et une autre avec comme date 1965. Ou encore, à une parcelle qui fait partie d’une exploitation jusqu’en 1970 puis est reprise par une autre est attribuée une première valeur de l’association « rattacher » avec comme date 1950 et une autre avec comme date 1970. L’information spatiale est gérée dans la base par le numéro cadastral de la parcelle. Le SIG contient une couche d’informations vectorielles correspondant au parcellaire cadastrale. La base de données et le SIG sont reliés par un lien de type ODBC (Open Data Base Connectivity). Chaque requête effectuée sur la base Access® peut donc être ensuite exportée dans le SIG et représentée par le biais d’une jointure spatiale (voir Figure 19). Table A Requête X ODBC Table X Jointure spatiale Table B Table C Base de données ACCESS ACCESS SIG Arcview SIG Arcview
Figure 19 : Lien dynamique entre le SIG et la Base de données relationnelles
- 56 - Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Figure 20 : Le modèle conceptuel de données de la base de données agronomiques de l’équipe avec le logiciel Win Design (source : Ladet & Gibon, 2004).
L
’encadré en pointillé correspond à la partie de la base de données développée actuellement.
- 57 - Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Le modèle conceptuel de la base de données (MCD) a été mis au point dans son intégralité. Cependant, une partie seulement de la base de donnée a été développée et implémentée pour les exploitations de mon enquête (voir encadré en pointillé sur la Figure 20). En effet, le développement complet de la base demande à ce stade d’approfondir la réflexion, notamment en ce qui concerne les modalités d’implémentation des données temporelles pour certaines variables. Dans le cadre de ma thèse, le noyau de l’encadré en pointillé a été utilisé et les fonctionnalités du SIG ont été utilisées pour l’élaboration des supports graphiques d’enquête et pour le calcul de variables de nature géographique (pente et altitude des parcelles estimées à partir du modèle numérique de terrain de l’IGN au 50 000ème). Les autres informations collectées au niveau de la parcelle cadastrale et de la parcelle agronomique ont été gérées dans le cadre d’une base de données Excel® que j’ai développée et implémentée avec la collaboration de C. Marcadet. 3.2.2. Une base personnelle Excel® implémentée et opérationnelle
Pour gérer l’ensemble de l’information parcellaire, j’ai fait le choix d’une base de données sous Excel® (base Parcelles). Les données relatives aux parcelles cadastrales y sont stockées par exploitation (40 fichiers.xls), dans un fichier multi-feuille, où chaque feuille correspond à un thème de données : - rattachement de la parcelle cadastrale à l’exploitation (depuis quand, avec quel mode de faire-valoir...?), - utilisation du sol et itinéraire technique (type d’utilisation, chaîne de récolte pour fauche, fumure, irrigation...), - contraintes et bâti (pierrosité, mouillère, présence d’une grange...). Chaque parcelle cadastrale y est désignée par son numéro de cadastre (numéro INSEE de la commune + lettre de la section + numéro de la parcelle ; ex : 65473 B 0103). Le lien avec le SIG se fait ici par fichier texte (format.txt) et jointure spatiale. Enfin, l’historisation des données se fait par répétition de la parcelle avec de nouvelles valeurs et les dates associées pour les variables qui présentent un changement et répétition des autres variables qui ne changent pas (voir Tableau 7 pour un exemple). Les données relatives aux parcelles agronomiques sont stockées dans un second fichier pour chaque exploitation. Ce fichier contient une feuille récapitulant la composition des parcelles agronomiques en parcelles cadastrales en plus de celles où sont stockées les informations relevées à leur niveau.
- Chapitre 2 : Démarche générale : cadre théorique, méthode et dispositif d’étude
Les données peuvent ensuite être mobilisées pour les analyses dans d’autres fichiers Excel® où les informations sont croisées, notamment par la méthode des
Tableaux Croisés Dynamiques. Table
au 7 Modalités d’historisation des données dans la base de données Excel® N° cad PC TUS DTUS... TUS 2 (=pré de fauche) depuis 1950 65473 B 0103 1 2 1950 TUS 1 (=terres labourables) depuis 1950 65473 B 0104 1 2 1965 puis TUS 2 (=pré de fauche) depuis 1965 65473 B 0104 1 1 1950... Légende : PC = numéro de la parcelle cadastrale ; TUS = type d’utilisation du sol ; DTUS = date depuis laquelle ce TUS est valable - 59 - - 60
- Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 Chapitre 3 Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950
Dans ce chapitre, je chercherai à rendre compte de la gestion de l’espace au niveau des exploitations agricoles et de son évolution depuis 1950. Dans un premier temps, je présenterai globalement l’histoire du système agraire local et la situation actuelle de l’élevage dans les Pyrénées. Dans une deuxième partie, je présenterai les stratégies de gestion de l’espace développées par les éleveurs grâce à l’étude des systèmes famille-exploitation actuels selon la méthodologie de typologies modulaires présentée dans le chapitre précédent. Dans une troisième et dernière partie, j’analyserai les trajectoires des exploitations agricoles depuis 1950 et la place de l’abandon dans ces trajectoires. - 61 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 Partie A Caractéristiques et évolution de l’agriculture dans la zone d’étude I. Les bases de la société rurale et de l’organisation de la gestion des ressources agro-pastorales 1. Les origines des sociétés rurales pyrénéennes
Les premières formes de sociétés rurales dans les Pyrénées étaient constituées de pasteurs transhumants qui cultivaient des terres saisonnièrement après abattisbrûlis et qui se sont progressivement sédentarisés entre 3000 et 1000 avant JC environ. Un écosystème cultivé post-forestier se mit en place. Le système agraire correspondant peut être défini comme un système à culture attelée légère (Mazoyer & Roudart, 1999) : travail du sol à l’araire, transfert de fertilité depuis des zones pâturées (saltus) par parcage nocturne du bétail sur les terres cultivées (ager) ou par récolte en estives des bouses séchées, épandues sous forme de poudrette. Contrairement aux zones de Pré-pyrénées où la jachère biennale est restée la règle jusqu’au 19ème siècle, en montagne, les cultures se sont toujours succédées d’une année sur l’autre (Cavailles, 1931 ; Chevalier, 1956). C’est l’importance du bétail et les pratiques élaborées de renouvellement de la fertilité qui maintenaient alors le potentiel productif des terres. Les sociétés agro-sylvo-pastorales pyrénéennes anciennes étaient très organisées et l’utilisation des ressources naturelles étroitement réglementée. La vallée, physique et fonctionnelle, était le cadre de cette organisation (Cavailles, 1931). En effet, l’isolement des vallées pyrénéennes, malgré une nécessaire ouverture, en faisait des entités politiques où les cout et usages réglaient la gestion de l’espace valléen. Au sein de la vallée, les villages représentaient l’unité d’organisation des personnes et des coutumes. Ce droit coutumier semble hérité des peuplades pré-romaines et fut rédigé pour partie tardivement, comme peuvent en témoigner certains arrêtés du Parlement de Toulouse datant de 1670 (Lavedan, 1990). Cette gestion était organisée à différents niveaux.
Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 2. La maison, une entité de gestion et de perpétuation du patrimoine
Dans le Sud-Ouest de la France, le droit coutumier reposait sur un système particulier dit « à maison » (Augustins, 1990). Ce système se différencie notamment par une succession unique au contraire, par exemple, des systèmes à parentèle (division du patrimoine entre tous les héritiers). Selon la définition du dictionnaire d’ethnologie, « la maison est une personne morale, détentrice d’un domaine, composé à la fois de biens matériels et immatériels et qui se perpétue par la transmission de son nom, de sa fortune et de ses titres en ligne réelle ou fictive » (Levi-Strauss, 1992). Les caractéristiques des systèmes à maison sont nombreuses mais les 2 aspects principaux qui nous intéressent sont les biens de la maison et le choix du successeur (Augustins, 1990). Les biens de la maison sont bien sûr les bâtiments, mais aussi l’ensemble des droits associés (citoyenneté villageoise, pacages communautaires...) et des droits de propriété ou d’usage (terres principalement). Ces biens sont transmis dans leur intégralité au successeur. Le système à maison reposant sur une succession unique, il suppose donc un choix du successeur parmi les enfants du chef de maison. De façon traditionnelle, c’est le premier né qui est le successeur unique de la maison, qu’il soit fils ou fille. Certaines variations du système à maison reposent en partie sur le choix de ce successeur: droit d’aînesse intégral même pour les filles dans la plupart des zones (Lavedan, Pays Toy...), droit d’aînesse au profit d’un enfant mâle dans d’autres zones (Aure, Barousse...). Les cadets étaient tenus comme dépendants de la maison et ne pouvaient la quitter qu’avec l’accord du chef de maison. Ils pouvaient alors se marier avec un(e) héritier(ère) ou avec un(e) cadet(te) (dans ce dernier cas, ils devaient renoncer à l’agriculture et s’engager dans un métier artisanal). S’ils ne trouvaient à se marier, il leur restait alors 2 solutions : l’émigration ou le célibat à la maison. Cette dernière solution n’était pas perçue comme dégradante et le cadet pouvait alors prendre le rôle du berger. Ce système avait pour but de conserver le patrimoine familial au cours des générations. En effet, il était primordial de ne pas morceler la propriété dans un milieu où les domaines sont peu étendus et où les terres ont un rendement limité (Cavaillès, 1931). De plus, il fallait prévenir la disparition d’une maison en empêchant toute fusion lors d’un mariage. Une disparition aurait eu pour conséquence un déséquilibre dans la gestion collective de l’espace par la disparition d’une voix dans l’assemblée du village (voir plus loin). Les aînés étaient donc mariés à des cadets. - 63 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950
Les sociétés pyrénéennes se présentent donc comme dominées par le « principe résidentiel » (Augustins, 1990) où, en quelque sorte, « la maison transcende les individus qui l'incarnent, à commencer par son chef lui-même qui doit savoir sacrifier ses intérêts ou ses sentiments particuliers à la perpétuation de son patrimoine matériel et surtout symbolique » (Bourdieu, 1997). Le chef de maison n’avait que l’usufruit de la maison dans le sens où il lui était impossible de vendre. On parle souvent de maison avant de parler de famille dans les Pyrénées, comme l’ont bien décrit Cantala (2002) et Depeyrot (2001). L’oustau, la maison dans les Pyrénées Bigourdanes, portait généralement un nom qui dérivait de celui du premier ancêtre : « Le seuil ne change jamais de nom » (Cavailles, 1931)...
3. L’organisation de la gestion de l’espace aux niveaux supérieurs
Ces niveaux ont été très bien décrits par Cantala (2002) et Depeyrot (2001). Je m’inspirerai donc de leurs travaux pour les présenter. Ces rôles sont présentés dans le tableau 8. Les maisons d’un même village sont regroupées en une assemblée de village, dénommée vesiau dans les Pyrénées Bigourdanes, constituée des chefs des différentes maisons. L’assemblée de vesiau avait pour rôle de défendre les droits des villageois sur les terrains collectifs (les communaux) face au pouvoir féodal et aux étrangers et aussi de gérer ces terrains (délimitation avec terrains privés, entretien et aménagements, règles d’utilisation comme le calendrier...). Aux niveaux supérieurs, se trouvent le vicq et la vallée, qui associent plusieurs villages pour la gestion des ressources indivises (telles que certaines estives), la réglementation, la gestion des conflits entre villages, le lien avec les autres vallées... Le vicq est un niveau intermédiaire non systématique qui regroupe souvent deux ou trois villages ayant une montagne commune pour l’estivage
. - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 Tableau 8
Les différents niveaux de gestion des systèmes agro-sylvo-pastoraux des Pyrénées Bigourdanes, leurs objectifs et les moyens coutumiers mis en place (d’après Cantala, 2002) Niveau de Objectif gestion Maison Ostau Village Vesiau Vallée ou vicq Maintien et transmission du patrimoine de la maison Moyen coutumier - Droit d'aînesse absolue - Non morcellement de la propriété - Non fusion des domaines (mariage d’un aîné avec un cadet) Protection des Terrains privés : pâturages collectifs - Dates de moisson et des terrains de - Dates et quartiers de vaine pâture culture Terrains
collect
ifs
: - Obligation pour tous les animaux d'estiver pendant la période déterminée sauf ceux nécessaires à la vie domestique - Limitation du nombre d'animaux autorisés à être introduits sur les pâturages
- Limitation du nombre d'animaux autorisés à être conservés en bas pour le travail ou les besoins du ménage - Délimitation des quartiers de mise en défens et dates de mise en défens saisonnière (bédat) et de levée de mise en défens (debédat) : elle étaient parfois fixes, parfois variables selon l'enneigement ou la végétation par exemple
-
Délimitation
des
quartiers de pacage pour les bœufs de travail (boalas
) - Entretien des
pâ ages par écobuage - Règles de pâturage avec quartiers précis pour la fertilisation. Protection de la forêt - Application des droits au bois - Application des droits de chasse ou de pêche - Mise en défens permanente des zones forestières fragiles Protection des pâturages indivis - Calendrier d'utilisation des pâturages avec obligation pour tous les animaux d'estiver pendant la période déterminée sauf ceux qui sont nécessaires à la vie domestique - Limitation du nombre d'animaux autorisés à être introduits sur les pâturages - Délimitation des zones d'utilisation pastorale
4. Les conséquences en termes paysagers
Une telle organisation dans la gestion des ressources résultait en des paysages très structurés dans lesquels on reconnaissait facilement des unités paysagères contrastées. Ces unités présentaient des caractéristiques homogènes en termes d’environnement naturel (sols, végétation...), d’aménagement (terrasses, pistes...) et d’utilisation (quartiers de cultures, de prés de fauches, pâturages - 65 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 communaux...). Elles s’organisaient de façon altitudinale le long des versants (Figure 21).
Figure 21 : L’organisation des versants dans les Pyrénées Bigourdanes : ressources pastorales et étages de végétation (adapté de Gibon, 1994a)
Cette organisation résulte souvent en ce que l’on appelle des paysages traditionnels tels que définis par Antrop (1997) : paysages à structures spécifiques et reconnaissables qui reflètent des relations claires entre les éléments qui les composent et qui ont une signification naturelle, culturelle et esthétique. Le concept de terroir (Bonnemaire et al., 1977 ; Bonnamour, 1993 ; Barjolle et al., 1998) issu de la géographie permet bien de rendre compte des différentes unités composants les paysages agricoles traditionnels. L’hétérogénéité intraterroir était faible mais chaque terroir différait des autres. Dans les Pyrénées, chaque maison possédait des terres dans chacun des différents terroirs du paysage agricole (Gibon, 1994b). La connaissance de la localisation d’une parcelle suffisait alors pour en connaître son utilisation (Balent & Gibon, 1996). Dans les Pyrénées Bigourdanes, comme dans toute zone de montagne, la mise en valeur des terres est fortement dépendante de l’accès et de l’éloignement des parcelles (Cavailles, 1931) et les hommes ont su aménager leur espace. Les terres à proximité des habitations étaient groupées en terroirs de cultures et en terroirs de prés de fauche, utilisés de façon intensive et dont la gestion était réglementée, en particulier pour assurer leur fumure. La mise en valeur des prairies éloignées ou isolées du village par le relief ou un court d’eau est plus contraignante. Pour pallier l’éloignement, le pré était associé traditionnellement à une grange foraine qui permettait de stocker le foin sur place et d’abriter les animaux si besoin. Le troupeau était déplacé au printemps depuis le village vers ces granges foraines puis vers les espaces communaux, et inversement à l’automne. Ces terroirs de granges sont courants dans les Pyrénées où elles sont parfois appelées bordes. - 66 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 II. Les évolutions des systèmes agraires et la « désorganisation » de l’espace agro-pastoral 1. La remise en cause des coutumes au 18ème siècle
Dans les systèmes agraires d’Europe Occidentale dits « à jachère et culture attelée lourde », le remplacement de la jachère par des cultures fourragères permit dès le 18ème siècle d’accroître une nouvelle fois le bétail et donc les possibilités de fumure (Mazoyer & Roudart, 1999). Les rendements en grains augmentèrent alors de même. Cependant, cette mise en culture des jachères nécessitait un contexte juridique, économique et social qui est bien décrit chez Mazoyer et Roudart (1999). En particulier, l’abolition de la vaine pâture et le droit d’enclosure (1744) étaient des conditions sine qua non de ces transformations. Dans les Pyrénées, où comme nous l’avons dit, la jachère n’existait pas, le « système à maison » a perduré longtemps après l’entrée en vigueur du Code Civil (1804) qui imposait un partage égalitaire des biens. Aujourd’hui encore, on peut en retrouver la trace dans les modalités de succession de certaines familles. Durant notre enquête, nous avons rencontré des personnes âgées sans successeurs et ne pouvant plus exploiter qui se refusent à vendre, évoquant le respect de la volonté de leurs parents décédés. Cependant, la gestion organisée du territoire vit ses bases coutumières remises en cause par la monarchie et fut abolie par la Révolution puis le code Napoléonien. Parmi les diverses conséquences locales de ces transformations, nous noterons la perte d’importance des maisons dans la gestion des ressources et la disparition officielle du vicq, organisme de gestion des ressources indivises entre commun Le principe d’égalité entre citoyen instauré par la Révolution fonda par ailleurs un partage égalitaire des biens entre héritiers et abolit de fait le droit coutumier pyrénéen en matière de succession tel que nous l’avons décrit. Cependant, ce droit s’est maintenu dans les faits jusqu’à la première moitié du 20ème siècle (Gratacos, 1998 ; Le Nail, 2001).
2. Les mutations socio-économiques et techniques du 19ème et du 20ème siècles
La révolution des transports, l’amélioration des conditions de vie liées à la révolution industrielle mais également la forte croissance démographique nationale entraînèrent, entre autre, une hausse importante de la demande en viande et en laine au cours du 19ème siècle au niveau national. Le cheptel de montagne augmente alors de façon très importante entre 1800 et 1870. Les bovins sont multipliés par 3 dans le département des Hautes-Pyrénées (voir Figure 22) et les ovins par 2.5. Cette augmentation s’accompagne d’un
- 67 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique puis important recul des cultures au profit des prairies permanentes en extension pour alimenter ce bétail (Cavaillès, 1931). C’est à partir du 18ème siècle que les vallées les plus isolées se sont ouvertes grâce à la construction de routes, comme celle qui relia Tarbes à Barèges en 1744, et que le tourisme thermal prit son essor dans les Pyrénées Centrales, annonçant une différenciation dans les ressources économiques locales. Le chemin de fer arriva ensuite au cours du 19ème (ligne Pierrefitte-Lourdes en 1871). Les années 1910 à 1930 voient alors le développement de l’industrie hydroélectrique dans les vallées des Pyrénées Centrales. Profitant de ces ressources énergétiques, l’industrie, des usines chimiques notamment dans la vallée que nous étudions, commence également à s’installer offrant des possibilités d’emploi pour les éleveurs. Les cadets qui ne sont pas encore partis mais aussi certains héritiers y trouvent un emploi qui leur permet, grâce au système de 3-8, de continuer à travailler à la ferme. C’est la naissance de l’ouvrier-paysan, qui est encore présent aujourd’hui. Figure 22 : Evolutions des effectifs des troupeaux ovins et bovins dans le département des Hautes-Pyrénées (d’après Buffière, 1997)
La dépopulation des montagnes, due à l’exode vers les bassins d’emploi de la ville mais aussi à la première guerre mondiale, est donc relativement moins importante que dans d’autres zones du fait du développement de l’industrie locale. D’après Cavaillès (1931), les cantons les plus montagneux (Arreau, Accous, Campan...) ont perdu jusqu’à 47% de leur population entre 1846 et 1926, alors que le canton d’Argelès n’a perdu que 22% du fait de son industrie et de sa situation au débouché d’une vallée. Dans le même temps, les effectifs des troupeaux ont commencé à diminuer, de façon modérée pour les bovins qui - 68 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950 se sont rapidement stabilisés (voir Figure 22) et de façon très importante pour les ovins. Ces diminutions se sont accompagnées d’un retour de la prairie permanente en remplacement des prairies temporaires et également d’un début de réduction de l’espace pâturé. Les évolutions du milieu et de la fin du vingtième siècle font l’objet d’une analyse approfondie dans ma thèse, présentée dans la partie C de ce chapitre. J’en dresse ici rapidement le cadre en l’illustrant par l’analyse des recensements de population et des recensements agricoles dans les quatre communes de notre zone d’étude. La population locale a continué à diminuer du fait de l’exode vers les villes (voir Figure 23). 800 700 Total 695 619 618 569 600 555 500 400 Villelongue 404 362 321 313 300 200 100 0 1950 291 Artalens-Souin 135 Saint Pastous 91 Vier-Bordes 65 1960 1970 122 82 115 78 53 120 111 74 114 91 59 55 1980 1990 2000
Figure 23 : Evolution de la population dans les communes de la zone d’étude (sources : INSEE)
Les politiques agricoles nationales et européennes de développement de l’agriculture basées sur la spécialisation et la modernisation des exploitations et les gains de productivité ont facilité les départs à la retraite. Un grand nombre d’exploitations ont alors disparu (Figure 24), en particulier celles qui ne pouvaient pas franchir le seuil de modernisation nécessaire.
- 69 - Chapitre 3 : Diversité des stratégies de gestion de l’espace dans les exploitations et dynamique depuis 1950
130 T o tal 120 121 110 100 90 75 80 70 62 58 60 Villelo ngue 52 50 42 40 A rtalens-So uin 30 28 27 23 Saint P asto us 20 19 18 17 15 7 7 16 14 20 Vier-B o rdes 14 10 12 0 1945 1955 1965 1975 1985 6 1995 2005
Figure 24 : Evolution du nombre d’exploitations dans les communes de la zone d’étude (source : Agreste) En particulier,
la généralisation du tracteur dans les années 50-60 (voire Figure 25) a entraîné l’abandon des parcelles les plus difficiles à travailler et l’intensification des zones les plus plates et les plus proches. En conséquence, certaines terres labourées furent semées en prairies utilisées de façon intensive alors que de nombreuses prairies difficiles à exploiter furent abandonnées entre 1960 et 1980 (cf Figure 26). 60 53 T o t a l 50 46 40 30 28 20 A rtalens-So uin Saint P asto ut Villelo ngue 10 Vier-B o rdes 1 0 1950 1960 1970 1980 1990 2000 2010
Figure 25 : Evolution du nombre de tracteurs dans les exploitations des communes de la zone d’étude (source Agreste) - 70 -
Chap
itre 3 : Diversité des stratégies de gestion de l’espace dans les
exploitation
s et
dynamique depuis
1950
900 861 820 Total 800 787 STH 700 679 684 713 662 625 600 623 579 500 400 300 200 Terres labourées 107 72 100 44 48 22 0 1945 1955 1965 1975 1985 1995 2005
Figure 26 : Evolution de la surface agricole (ha) utilisée par les exploitations des communes de la zone d’étude (source Agreste) STH = Surface toujours en herbe
La diminution de la STH s’est accompagnée par une baisse générale du cheptel en montagne. Malgré les données manquantes du RGA de 1955 pour certaines catégories d’animaux, cette baisse se retrouve dans notre zone d’étude pour le début de la période étudiée (Figure 27). 1600 1498 1400 1350 1239 Brebis mères 1200 1197 1000 800 Bovins 668 722 555 600 UGB ovins + bovins 400 Vaches allaitantes 200 Vaches laitières 0 1945 530,5 522,2 536,7 324 297 278 4 13 14 494 339 269 1955 1965 1975 1985 5 1995 2005
Figure 27 : Evolution du cheptel (nombre de têtes) dans les exploitations des 4 communes de la zone d’étude. (source Agreste) - 71 -
Chap
itre 3 : Diversité des stratégies de gestion
de l’espace dans les exploitations et dynamique depuis 1950 Enfin, à partir de la fin des années 80, la déprise en montagne fut freinée par les politiques spéciales montagne et agri-environnementales. Cela se traduit dans notre zone d’étude par une moindre diminu
tion
du
nombre d’exploitations
et
une ré-augmentation de
la STH
et du cheptel
ovin
et bovin
.
La Figure 28 schématise les différentes évolutions que nous avons décrites.
| 15,887
|
dc3c6efad761ec1db02503ac0051d8a6_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,014
|
Part de la population dépendante : En pourcentage de la population totale
|
None
|
French
|
Spoken
| 7,386
| 13,488
|
Panorama des statistiques
de l’OCDE
ÉCONOMIE, ENVIRONNEMENT ET SOCIÉTÉ
2014
énergie santé
éducation main-d'œuvre
production science
migration
technologie
mondialisation
revenu
finance
ressources
dépenses
conversion
régions
investissement
société
environnement
prix
revenu
productivité
main-d’œuvre
gouvernement
recettes
transport
taxes
public
population
échanges
Panorama des statistiques
de l’OCDE
2014
ÉCONOMIE, ENVIRONNEMENT ET SOCIÉTÉ
Cet ouvrage est publié sous la responsabilité du Secrétaire général de l’OCDE. Les opinions
et les interprétations exprimées ne reflètent pas nécessairement les vues officielles des
pays membres de l’OCDE.
Ce document et toute carte qu’il peut comprendre sont sans préjudice du statut de tout
territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites
internationales, et du nom de tout territoire, ville ou région.
Merci de citer cet ouvrage comme suit :
OCDE (2014), Panorama des statistiques de l’OCDE 2014 : Économie, environnement et société, Éditions OCDE.
http://dx.doi.org/10.1787/factbook-2014-fr
ISBN 978-92-64-20920-6 (imprimé)
ISBN 978-92-64-20921-3 (PDF)
ISBN 978-92-64-20922-0 (HTML)
Annuel :
ISSN 1818-6394 (imprimé)
ISSN 1814-7372 (en ligne)
Les données statistiques concernant Israël sont fournies par et sous la responsabilité des autorités israéliennes
compétentes. L’utilisation de ces données par l’OCDE est sans préjudice du statut des hauteurs du Golan, de
Jérusalem-Est et des colonies de peuplement israéliennes en Cisjordanie aux termes du droit international.
Crédits photo :
Chapter 2 : © Image Source/Getty Images | Chapter 3 : © Istockphoto/Dan Barnes | Chapter 4 : © Stockbyte/Getty Images |
Chapter 5 : © Lawrence Lawry/Photodisc/Getty Images | Chapter 6 : © Larry Lee Photography/Corbis | Chapter 7 :
© Cocoon/Digital Vision/Getty Images | Chapter 8 : © Comstock Images/Comstock Images/Getty Images | Chapter 9 :
© Digital Vision/Getty Images | Chapter 10 : © Jacobs Stock Photography/Getty Images | Chapter 11 : © OCDE.
Les corrigenda des publications de l’OCDE sont disponibles sur : www.oecd.org/about/publishing/corrigenda.htm.
© OCDE 2014
La copie, le téléchargement ou l’impression du contenu OCDE pour une utilisation personnelle sont autorisés. Il est possible d’inclure des
extraits de publications, de bases de données et de produits multimédia de l’OCDE dans des documents, présentations, blogs, sites Internet
et matériel pédagogique, sous réserve de faire mention de la source et du copyright. Toute demande en vue d’un usage public ou
commercial ou concernant les droits de traduction devra être adressée à [email protected]. Toute demande d’autorisation de photocopier une
partie de ce contenu à des fins publiques ou commerciales devra être soumise au Copyright Clearance Center (CCC), [email protected], ou
au Centre français d’exploitation du droit de copie (CFC), [email protected].
Panorama des statistiques de l’OCDE 2014
AVANT-PROPOS
Le Panorama des statistiques de l’OCDE est la publication statistique la plus complète de l’Organisation.
Il contient un large éventail d’indicateurs comparables à l’échelle internationale qui permettent d’évaluer
et de comparer les performances des pays dans le temps et dans divers domaines qui sont au premier plan
des préoccupations des citoyens et des responsables de l’action publique.
Rédigé dans un langage accessible à tous, le Panorama des statistiques de l’OCDE propose plus de
100 indicateurs couvrant les 34 pays membres de l’OCDE, et, sous réserve de données comparables
disponibles, l’Afrique du sud, le Brésil, la Fédération de Russie, l’Inde, l’Indonésie et la République
populaire de Chine.
Toutes les données qui figurent dans le Panorama des statistiques de l’OCDE sont également disponibles
en ligne sur OECD.Stat, la plateforme de diffusion de données de l’Organisation, ainsi que sur le nouveau
portail de données de l’OCDE à compter de juin 2014. Grâce à ces différents formats, le Panorama des
statistiques de l’OCDE offre un outil de référence facile à utiliser à tous ceux qui sont à la recherche de
statistiques fiables et comparables sur le plan international.
Par rapport à l’édition précédente, plusieurs nouveaux indicateurs ont fait leur entrée dans le
Panorama des statistiques de l’OCDE. Ainsi, une palette d’indicateurs relatifs aux échanges en valeur ajoutée
et au changement climatique ont été ajoutés, afin d’aider à mieux comprendre les tendances relatives à la
mondialisation et à l’environnement. Les chaînes de valeur mondiales et les systèmes de production
fragmentés à l’échelle internationale occupent aujourd’hui une place prépondérante dans l’économie
mondiale. Les nouvelles statistiques sur les échanges en valeur ajoutée permettent de mieux rendre
compte de l’intégration des économies mondiales, par exemple en mesurant le contenu en importations
des exportations dans différents secteurs ou l’importance croissante des services dans les échanges
mondiaux. Dans le domaine de l’environnement, les nouveaux indicateurs relatifs aux émissions de gaz
à effet de serre, de soufre et d’azote mettent en lumière les principaux moteurs du changement
climatique et leurs effets potentiels sur notre santé et nos écosystèmes.
Une méthodologie fiable est indispensable pour garantir la qualité des données présentées dans le
Panorama des statistiques de l’OCDE, ainsi que leur comparabilité à l’échelle internationale et leur pertinence.
La nouvelle édition du Panorama des statistiques de l’OCDE contient des données compilées conformément
à plusieurs nouvelles méthodologies statistiques élaborées ces dix dernières années et approuvées au
niveau international. Il s’agit notamment du nouveau Système de comptabilité nationale 2008 (SCN 2008), de
la 6e édition du Manuel de la balance des paiements (MBP6) et de la version actualisée de la Classification
internationale type, par industrie, de toutes les branches d’activité économique (CITI Rev.4), qui déterminent la
mesure et la présentation du Produit intérieur brut et d’autres statistiques économiques connexes, des flux
internationaux de biens et de services, et d’autres statistiques sectorielles.
Fort des changement apportés à l’édition de cette année, tant en termes de contenu que de diffusion,
le Panorama des statistiques de l’OCDE continuera, j’en suis sûre, de fournir les données qui étayeront les
efforts déployés par l’OCDE pour remplir sa mission visant à promouvoir des politiques meilleures pour une
vie meilleure et pour répondre à l’évolution des besoins des citoyens, des chercheurs, des analystes et des
décideurs en matière de statistiques.
Martine Durand
Chef statisticien de l’OCDE et Directrice de la Direction des statistiques
4
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
REMERCIEMENTS
Le Panorama des statistiques de l’OCDE, au format papier et électronique, ainsi que sa base de données
en ligne, est le fruit d’une coopération permanente en matière de statistiques entre la quasi-totalité des
Directions et des organes spécifiques de l’OCDE – parmi lesquels l’Agence internationale de l’énergie (AIE),
l’Agence pour l’énergie nucléaire (AEN) et le Forum international des transports (FIT). Cet ouvrage reflète
également la coopération continue et efficace établie entre les autorités statistiques des pays de l’OCDE et
des pays partenaires.
La Direction des Statistiques de l’OCDE assure la coordination générale du Panorama des statistiques de
l’OCDE, sous l’égide de David Brackfield en qualité d’éditeur et d’Ingrid Herrbach, qui assume la
responsabilité technique globale des travaux. La Direction des relations extérieures et de la
communication a fourni des directives éditoriales, sous la conduite d’Eileen Capponi et de Damian Garnys,
qui a coordonné les lectures complémentaires. Le Département Systèmes collaboratifs et de préparation
des documents de la Division Services des technologies et réseaux d’information de la Direction exécutive
de l’OCDE a assuré le support informatique.
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 5 TABLE DES MATIÈRES Avant-propos Remerciements Guide de l’utilisateur 4 5 8 Population et Population et Migration migration POPULATION Population totale Fécondité Population dépendante Population par région Population âgée par région 12 12 16 18 20 22 MIGRATION INTERNATIONALE Population immigrée et étrangère Tendances des migrations Migrations et emploi Migration et chômage 24 24 26 28 30 Production etetProductivité Production productivité PRODUCTION ET INVESTISSMENT Taille du PIB Évolution du PIB Taux d’investissement 34 34 36 38 PRODUCTIVITÉ Niveaux de la productivité du travail Évolution de la productivité du travail Productivité et croissance Coûts unitaires de la main-d’œuvre Rémunération du travail 40 40 42 44 46 48 STRUCTURE ÉCONOMIQUE Valeur ajoutée par activité Valeur ajoutée réelle par activité Petites et moyennes entreprises 50 50 52 54 Revenus Revenus et et Patrimoine patrimoine ménages des Ménages REVENUS ET ÉPARGNE Revenu national par habitant Revenu disponible des ménages Épargne des ménages 58 58 60 62 INÉGALITÉS DES REVENUS Inégalité des revenus Taux et intensité de la pauvreté 64 64 66 PATRIMOINE DES MÉNAGES Actifs financiers des ménages Dette des ménages Actifs non financiers des ménages 68 68 70 72 6 Mondialisation Mondialisation ÉCHANGES Échanges internationaux en pourcentage du PIB Échanges internationaux de biens Échanges internationaux de services Partenaires commerciaux Échanges en valeur ajoutée Échanges en valeur ajoutée : rôle des biens intermédiaires et des services 76 IDE ET BALANCE DES PAIEMENTS Investissement direct étranger Balance des paiements 88 88 92 76 78 80 82 84 86 Prix Prix PRIX ET TAUX D’INTÉRÊT Inflation (IPC) Indices des prix à la production Taux d’intérêt à long terme 96 96 98 100 PARITÉS DE POUVOIR D’ACHAT ET TAUX DE CHANGE Taux de conversion Taux de change effectifs réels 102 102 106 Énergie Énergieetettransport transport APPROVISIONNEMENT EN ÉNERGIE Approvisionnement en énergie Intensité énergétique Production d’électricité Énergie nucléaire Énergies renouvelables Production de pétrole Prix du pétrole 110 110 112 114 116 118 120 122 TRANSPORT Transport de marchandises Transport de voyageurs Accidents de la route 124 124 126 128 Travail Travail EMPLOI ET HEURES TRAVAILLÉES Taux d’emploi Taux d’emploi par classe d’âge Emploi à temps partiel 132 132 134 136 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 Emploi non salarié Emploi par région Durée effective du travail 138 140 142 CHÔMAGE Taux de chômage Chômage de longue durée Chômage par région 144 144 146 148 Science et technologies technologies RECHERCHE ET DÉVELOPPEMENT Dépenses de recherche et développement Chercheurs Brevets Dépôt de brevet dans les zones métropolitaines 152 152 154 156 INFORMATION ET COMMUNICATIONS Taille du secteur TIC Exportations d’équipements liés aux TIC Ordinateurs, internet et télécommunications 160 160 162 158 164 Environnement Environnement EAU ET RESSOURCES NATURELLES Consommation d'eau Pêcheries Déchets municipaux 168 168 170 172 AIR ET CLIMAT Émissions de dioxyde de carbone Émissions de soufre et d’azote Émissions de gaz à effet de serre Viabilité écologique dans les zones métropolitaines 174 174 176 178 180 Éducation Éducation RÉSULTATS 184 Évaluation internationale des élèves 184 186 Enseignement des mathématiques Évaluation internationale des compétences des adultes 188 Inactivité des jeunes 190 Combien d’étudiants sont inscrits à l’étranger ? 192 Niveau de formation 194 RESSOURCES Dépenses d’éducation PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 196 196 Enseignants Dépenses dans l'enseignement supérieur 198 200 Gouvernement Gouvernement DÉFICITS ET DETTE PUBLICS Dépenses, recettes et déficits publics Dette publique 204 204 206 ADMINISTRATIONS PUBLIQUES Répartition des dépenses entre les niveaux d’administration Recettes et dépenses des administrations publiques par habitant Coûts de production des administrations publiques 208 TRANSPARANCE DU GOUVERNMENT Déclaration d’intérêts et de patrimoine 214 214 DÉPENSES PUBLIQUES Dépenses sociales Dépenses de retraite 216 216 218 SOUTIENS À L’AGRICULTURE ET AIDE ÉTRANGÈRE Soutien des administrations publiques à l’agriculture Concours publics à la pêche Aide publique au développement FISCALITÉ Impôts applicables au travailleur moyen Recettes fiscales totales 208 210 212 220 220 222 224 228 228 230 Santé Santé ÉTAT DE SANTÉ Espérance de vie Mortalité infantile Suicides 236 236 238 240 FACTEURS DE RISQUES Tabagisme Consommation d’alcool Surpoids et obésité 242 242 244 246 RESSOURCES Médecins Personnel infirmier Dépenses de santé 248 248 250 252 Index analytique 254 7 GUIDE DE L’UTILISATEUR Présentation et contenu ● Chaque tableau ou graphique est précédé d’un bref commentaire qui donne la définition des statistiques (Définition) et expose les principaux problèmes qui peuvent se poser lorsqu’on veut comparer les résultats des pays (Comparabilité). ● Les tableaux et graphiques sont aussi disponibles en tant que fichiers à télécharger.
● En général, le grand public et les médias s’intéressent surtout aux statistiques dans une optique à court
terme (par exemple, comment ont évolué ces derniers mois l’emploi, les prix ou le PIB ?). Le Panorama des
statistiques de l’OCDE se situe dans une vision à plus long terme. Le texte et les graphiques rendent
compte essentiellement de l’évolution intervenue au moins durant les dix dernières années. Cette
perspective à long terme permet de comparer dans de bonnes conditions les succès et les échecs des
politiques mises en œuvre pour améliorer le niveau de vie et la situation sociale dans les pays étudiés.
● Afin de faciliter les comparaisons entre pays, de nombreux indicateurs du Panorama des statistiques ont
été normalisés en les rapportant au produit intérieur brut (PIB) de chaque pays. Lorsque le PIB doit être
converti en une monnaie commune, on a utilisé les parités de pouvoir d’achat (PPA) au lieu des taux de
change. Lorsque les PPA ont été appliquées, les différences de niveau de PIB traduisent uniquement les
différences de volume des biens et services, les écarts de niveau de prix ayant été éliminés.
Conventions
Sauf indication contraire :
● L’OCDE
couvre les 34 pays membres de l’OCDE sauf si indiqué différemment dans la section
« Comparabilité ». L’indicateur est soit la moyenne pondérée des valeurs des pays, soit une moyenne
arithmétique non pondérée.
● Pour chaque pays, les moyennes sur une période prennent uniquement en compte les années pour
lesquelles les données sont disponibles. Le taux moyen de croissance annuelle d’une variable sur une
période est la moyenne géométrique des taux de croissance annuels de cette variable présentés dans le
tableau au cours de la période considérée (autrement dit, il s’agit du taux composé de croissance
annuelle).
● La période couverte est précisée dans chaque tableau ou graphique. La mention XXXX ou dernière année
disponible (où XXXX est une année ou une période) signifie que les données pour les années ultérieures
n’ont pas été prises en compte.
Signes, abréviations et acronymes
..
0
USD
CAD
OIT
FMI
FIT
ONU
CEE ONU
OMC
8
Valeur manquante ; non applicable ou non disponible
Moins de la moitié du niveau de précision de l’unité de l’observation
Zéro absolu
Dollars des États-Unis
Comité d’aide au développement
Organisation internationale du travail
Fonds monétaire international
Forum international des transports
Nations Unies
Commission économique des Nations Unies pour l’Europe
Organisation mondiale du commerce
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
Les codes ISO sont utilisés pour les pays
AUS
AUT
BEL
CAN
CHE
CHL
CZE
DEU
DNK
ESP
EST
FIN
FRA
GBR
GRC
HUN
IRL
Australie
Autriche
Belgique
Canada
Suisse
Chili
République tchèque
Allemagne
Danemark
Espagne
Estonie
Finlande
France
Royaume-Uni
Grèce
Hongrie
Irlande
ISL
ISR
ITA
JPN
KOR
LUX
MEX
NLD
NOR
NZL
POL
PRT
SVK
SVN
SWE
TUR
USA
Islande
Israël
Italie
Japon
Corée
Luxembourg
Mexique
Pays-Bas
Norvège
Nouvelle-Zélande
Pologne
Portugal
République slovaque
Slovénie
Suède
Turquie
États-Unis
CAD
EA17
EU27
G7M
OCDE
WLD
Total CAD
Zone euro
Union européenne
Sept grands pays
zone OCDE
Monde
BRA
CHN
IDN
IND
RUS
ZAF
Brésil
Chine
Indonésie
Inde
Fédération de Russie
Afrique du Sud
StatLinks
Cet ouvrage offre une prestation unique, StatLink, qui permet de télécharger en version Excel® les
graphiques et les tableaux. Le lien StatLink figure au bas de chaque tableau ou graphique. Ce lien
correspond à une adresse internet, que vous pouvez utiliser avec votre navigateur internet pour obtenir les
données en format Excel.
Pour de plus amples informations sur StatLink, voir : www.oecd.org/statistiques/statlink.
Accéder aux publications de l’OCDE
● Les publications de l’OCDE citées dans le présent ouvrage sont disponibles via OECD iLibrary (www.oecd-
ilibrary.org/fr), la bibliothèque en ligne de l’OCDE.
● Tous les documents de travail de l’OCDE peuvent être téléchargés via OECD iLibrary.
● Toutes les bases de données mentionnées dans le livre peuvent également être consultées via OECD
iLibrary.
● De plus, les versions imprimées de tous les livres de l’OCDE peuvent être achetées sur le site de vente
par correspondance de l’OCDE (www.oecdbookshop.org).
Glossaire de termes statistiques
Le Glossaire de termes statistiques en ligne de l’OCDE (http://stats.oecd.org/glossary) complète
parfaitement le Panorama des statistiques de l’OCDE. Il contient près de 7 000 définitions de termes,
acronymes et concepts, sous une forme très conviviale. Ces définitions proviennent essentiellement des
directives et recommandations statistiques internationales formulées ces deux ou trois dernières
décennies par des organisations comme les Nations Unies, l’OIT, l’OCDE, Eurostat, le FMI et les instituts
nationaux de la statistique.
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
9
POPULATION ET MIGRATION
POPULATION
POPULATION TOTALE
FÉCONDITÉ
POPULATION DÉPENDANTE
POPULATION PAR RÉGION
POPULATION ÂGÉE PAR RÉGION
MIGRATION INTERNATIONALE
POPULATION IMMIGRÉE ET ÉTRANGÈRE
TENDANCES DES MIGRATIONS
MIGRATIONS ET EMPLOI
MIGRATION ET CHÔMAGE
POPULATION ET MIGRATION • POPULATION
POPULATION TOTALE
Population
La taille et la progression de la population d’un pays représentent à la fois les causes et les conséquences du développement économique et social. Le rythme de progression de la
population ralentit dans tous les pays de l’OCDE.
À noter que, pour certains pays, les chiffres de population indiqués ne sont pas ceux qui sont utilisés pour calculer le PIB et
d’autres statistiques économiques par habitant, mais les écarts
entre les séries de données sont généralement faibles.
Les projections démographiques, qui donnent des indications
sur l’évolution probable de la taille et de la structure de la
population, constituent un instrument démographique courant. Elles servent de base à d’autres projections statistiques
(l’offre de services, l’emploi, etc.) et, en tant que telles, sont très
précieuses pour faciliter la prise de décision au sein de l’État.
Les projections démographiques sont tirées des sources nationales lorsque celles-ci sont mises à disposition mais, pour certains pays, elles s’appuient sur les projections de l’ONU ou
d’Eurostat. Les projections mondiales proviennent de l’ONU.
Toutes les prévisions démographiques reposent sur des hypothèses concernant les tendances futures de l’espérance de vie,
des taux de fécondité et du solde migratoire. Souvent, un
ensemble de projections est produit en utilisant différentes
hypothèses sur ces tendances futures. Les estimations présentées ici correspondent aux variantes médianes ou centrales.
Définition
Les données se rapportent à la population résidente. Pour des
pays qui ont des colonies, des protectorats ou d’autres possessions territoriales outre-mer, les statistiques n’englobent pas,
en règle générale, les populations de ces territoires. Les taux de
croissance correspondent aux variations annuelles de la population résultant du solde des naissances, des décès et de
l’immigration nette au cours de l’année. La population d’âge
actif est celle âgée de 15 à 64 ans.
La Croatie n’est pas incluse dans l’UE 28.
Comparabilité
Dans la plupart des pays de l’OCDE, les statistiques de la population sont basées sur des recensements réguliers réalisés tous
les dix ans, et, pour les années intermédiaires, sur les données
administratives. Dans plusieurs pays européens, les données
proviennent intégralement de registres administratifs. En règle
générale, les données démographiques présentent un bon
degré de comparabilité.
En bref
En 2011, les pays de l’OCDE regroupaient 18 % de la population mondiale, estimée à 7 milliards de personnes. La
Chine en représentait 20 % et l’Inde, 17 %. À l’intérieur de
la zone OCDE, les États-Unis comptaient pour 25 % de la
population totale, suivis par le Japon (10 %), le Mexique
(9 %), l’Allemagne (7 %) et la Turquie (6 %).
Entre 2009 et 2011, des taux de croissance démographique
supérieurs à la moyenne de l’OCDE (0.7 % par an) ont été
enregistrés en Israël, au Mexique et en Turquie (pays à
forte natalité) ainsi qu’en Australie, au Canada, au Chili, au
Luxembourg, en Norvège, en Suède, en Suisse, au
Royaume-Uni et aux États-Unis (pays à fort excédent
migratoire). La Nouvelle-Zélande et l’Irlande ont également enregistré un taux de croissance démographique
supérieur à la moyenne de l’OCDE, sous l’effet d’un taux de
natalité proche du seuil de remplacement (équivalant à 2.1
enfants par femme) et d’un taux de migration nette positif.
En Hongrie et en Allemagne, la population a décru essentiellement en raison de taux de natalité faibles. En Grèce, le
recul démographique concerne surtout la population d’âge
actif en raison de l’émigration. Le taux de croissance
démographique était également négatif en Estonie, en
Islande et au Portugal, tandis qu’il était très bas mais néanmoins positif au Japon, en Italie et en République slovaque.
Jusqu’en 2050, on estime que la population des pays de
l’OCDE va augmenter de 0.3 % par an.
12
Sources
• Pour les pays membres : sources nationales, Nations Unies et
Eurostat.
• Pour le Brésil, la Chine, l’Inde, l’Indonésie, la Russie et
l’Afrique du sud : Nations Unies, Perspectives de la population
mondiale: Révision de 2012.
Pour en savoir plus
Publications analytiques
• OCDE (2011), Assurer le bien-être des familles, Éditions OCDE.
• OCDE (2011), The Future of Families to 2030, Éditions OCDE.
Publications statistiques
• OCDE (2013), Panorama de la société, Éditions OCDE.
Publications méthodologiques
• OCDE (2013), Statistiques de l’OCDE de la population active,
Éditions OCDE.
Bases de données en ligne
• Statistiques de l’OCDE sur l’emploi et le marché du travail.
• Perspectives démographiques mondiales des Nations Unies.
Sites Internet
• Base de données de l’OCDE sur la famille, www.oecd.org/
social/famille/basededonnees.
..
-0.78
-0.22
2.43
1.19
1.33
0.64
0.37
0.02
-0.40
0.17
0.12
0.66
0.21
0.74
..
1.28
0.09
..
67.0
67.6
65.5
..
68.7
73.1
..
..
66.5
66.8
65.1
64.1
65.4
..
..
66.5
..
..
62.9
..
64.8
66.0
66.1
66.3
..
65.9
71.7
68.7
65.4
68.7
64.2
..
..
66.4
..
65.0
68.2
73.3
71.4
65.4
65.6
1 2 http://dx.doi.org/10.1787/888933038286
Population en âge de travailler
En pourcentage de la population totale
Moyenne sur 3 ans à la fin de la période (2009-11)
Moyenne sur 3 ans au début de la période (2000-02)
75
72
69
66
63
60
57
54
1 2 http://dx.doi.org/10.1787/888933035550
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
15
POPULATION ET MIGRATION • POPULATION
FÉCONDITÉ
Comme la mortalité et les migrations, le taux de fécondité
constitue un élément de la croissance démographique,
laquelle reflète à la fois les causes et les conséquences de l’évolution économique et sociale.
Dans les pays de l’OCDE, l’indicateur conjoncturel de fécondité
a baissé de manière spectaculaire sur les dernières décennies,
tombant d’une moyenne de 2.7 enfants par femme en 1970 à
1.7 dans les années 2000. Le recul de la fécondité peut s’expliquer par le fait que les familles se forment plus tard et souhaitent avoir moins d’enfants. D’autres facteurs jouent
certainement un rôle, comme l’augmentation du niveau de formation des femmes et la hausse de leur taux d’activité, l’aide
insuffisante apportée aux familles pour pouvoir concilier travail et obligations familiales, la nécessité de s’assurer un
emploi et des revenus, ou bien encore les problèmes croissants
de logement. Le recul de la fécondité a été particulièrement
marqué (d’au moins 3 enfants par femme en moyenne) en
Corée, au Mexique et en Turquie.
Définition
L’indicateur conjoncturel de fécondité pour une année donnée
est le nombre d’enfants que chaque femme pourrait mettre au
monde en supposant qu’elle demeure en vie jusqu’à la fin de
sa période de fécondité et qu’elle donne naissance, à un âge
donné, au nombre d’enfants correspondant au niveau de
fécondité de l’année considérée pour cet âge.
Comparabilité
L’indicateur conjoncturel de fécondité est généralement calculé en faisant la somme des taux de fécondité à un âge donné
sur une période de cinq ans. En supposant qu’il n’y ait pas de
flux migratoires ni de variation de la mortalité, un indicateur
conjoncturel de fécondité de 2.1 enfants par femme assure une
stabilité générale de la population ; on parle également de
« taux de fécondité de remplacement » car il assure le
« remplacement » de la mère et du père, avec 0.1 enfant en plus
pour prendre en compte la mortalité infantile.
Les données sont collectées chaque année auprès des offices
statistiques nationaux. Les années de référence sont 2011 (2010
pour le Chili) et 1970 (1980 pour le Brésil, l’Estonie et Israël).
En bref
Avant la crise, les taux de fécondité moyens se sont légèrement redressés entre 2000 et 2008, mais ces évolutions
sont très variables. Les taux de fécondité ont continué de
baisser ou sont restés stables en Autriche, au Japon, en
Corée et en Suisse – qui sont tous des pays de basse fécondité. La fécondité a d’autant plus eu tendance à remonter
que le taux de départ était élevé, excédant même le seuil
de remplacement en Nouvelle-Zélande et en Islande. Ce
rebond de la fécondité a marqué le pas dans de nombreux
pays de l’OCDE en 2009, peut-être en raison de la crise économique.
Pendant les premières années de la récession (entre 2008 et
2011), le taux de fécondité a reculé dans plus des deux tiers
des pays de l’OCDE, jusqu’à près de 0.2 point aux ÉtatsUnis (pays à fécondité relativement élevée) et de 0.1 point
dans cinq pays européens de l’OCDE (Danemark, Estonie,
Hongrie, Islande et Espagne) ainsi qu’en Nouvelle-Zélande
et en Turquie. Le taux de fécondité aux États-Unis a atteint
en 2011 le seuil jamais atteint auparavant de 1.89 enfant
par femme, contre 2.12 en 2008.
En 2011, le taux de fécondité le plus élevé a été enregistré
en Israël, où les femmes ont presque un enfant de plus en
moyenne que dans le pays arrivé au deuxième rang, la
Nouvelle-Zélande. De fait, Israël a été le seul pays de
l’OCDE à dépasser le seuil de remplacement (2.1 enfants
par femme). Les pays anglophones et les pays nordiques se
situent généralement en haut du classement, tandis que
l’Europe continentale (à l’exception notable de la France)
enregistre des taux faibles, aux côtés de taux de fécondité
encore plus bas au Japon et en Europe du Sud. Le taux de
fécondité est particulièrement bas en Hongrie et en Corée,
où il dépasse à peine un enfant par femme en moyenne.
Le taux de fécondité est en général plus élevé dans les pays
émergents : il dépasse le seuil de remplacement en Inde et
en Afrique du Sud. Il a augmenté de 0.1 point en Russie
entre 2008 et 2011, mais a diminué dans d’autres économies émergentes (à l’exception du Brésil).
16
Sources
• Pour les pays membres, le Brésil, la Russie
et l’Afrique du Sud : Offices statistiques nationaux.
• Pour la Chine, l’Inde et l’Indonésie: Banque Mondiale
Indicateurs du développement dans le monde.
• Taux de fécondité : OCDE (2013), Panorama de la société,
Éditions OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2011), Assurer le bien-être des familles, Éditions OCDE.
Publications statistiques
• OCDE (2013), Panorama de la société, Éditions OCDE.
Publications méthodologiques
• Addio, A.C.d’, et M.M. d’Ercole (2005), “Trends and
determinants of fertility rates: The role of policies”, OECD
Social Employment and Migration Working Papers, No. 27.
Bases de données en ligne
• Perspectives démographiques mondiales des Nations Unies.
Sites Internet
• Base de données de l’OCDE sur la famille, www.oecd.org/
social/famille/basededonnees.
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
POPULATION ET MIGRATION • POPULATION
FÉCONDITÉ
Taux de fécondité
Nombre d’enfants nés de femmes âgées de 15 à 49 ans
Allemagne
Australie
Autriche
Belgique
Canada
Chili
Corée
Danemark
Espagne
Estonie
États-Unis
Finlande
France
Grèce
Hongrie
Irlande
Islande
Israël
Italie
Japon
Luxembourg
Mexique
Norvège
Nouvelle-Zélande
Pays-Bas
Pologne
Portugal
République slovaque
République tchèque
Royaume-Uni
Slovénie
Suède
Suisse
Turquie
UE-28
OCDE
Afrique du Sud
Brésil
Chine
Fédération de Russie
Inde
Indonésie
1970
1980
1990
2000
2003
2004
2005
2006
2007
2008
2009
2010
2011
2.03
2.86
2.29
2.25
2.33
3.95
4.53
1.95
2.90
..
2.48
1.83
2.48
2.40
1.97
3.87
2.81
..
2.43
2.13
1.98
6.77
2.50
3.17
2.57
2.20
2.83
2.40
1.91
2.43
2.21
1.94
2.10
5.00
2.42
2.76
5.65
..
1.24
1.76
1.36
1.52
1.89
1.83
2.00
1.42
1.24
2.04
2.02
3.00
1.42
1.39
1.51
2.03
1.88
2.06
1.76
1.30
1.36
1.45
1.43
1.97
1.56
1.90
1.52
2.02
1.56
1.70
2.35
..
1.58
1.60
2.59
2.09
1 2 http://dx.doi.org/10.1787/888933038305
Taux de fécondité
Nombre d'enfants par femme âgée de 15 à 49 ans
2011 ou dernière année disponible
1970 ou première année disponible
7
6
5
4
3
Niveau de remplacement 2.1
2
1
1 2 http://dx.doi.org/10.1787/888933035569
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
17
POPULATION ET MIGRATION • POPULATION
POPULATION DÉPENDANTE
Les tendances démographiques observées dans les pays de
l’OCDE impliquent une forte progression de la part de la population dépendante (qui correspond à la somme de la population âgée et de la population jeune) dans la population totale,
progression qui devrait se poursuivre à l’avenir. Ces tendances
ne sont pas sans conséquence sur les dépenses publiques et
privées de retraite, de santé et d’éducation, mais aussi, plus
généralement, sur la croissance économique et le bien-être.
Définition
La population est définie comme la population qui réside effectivement dans le pays, c’est-à-dire toute personne, quelle que
soit sa nationalité, qui a un lieu permanent de résidence dans
le pays.
En bref
La part de la population dépendante reflète les effets combinés des taux de fécondité, de l’espérance de vie et des
migrations. En 2010, en France, en Israël, au Mexique, au
Japon et en Suède, la part de la population dépendante
était supérieure de plus de 2 point de pourcentage à la
moyenne de l’ensemble des pays de l’OCDE (33 %). À 27 %,
la part de la population dépendante en Corée est la plus
faible de toute la zone OCDE, suivie de près par la
République slovaque, la Pologne, la République tchèque et
le Canada. Dans les pays émergents, on observe d’importantes variations, avec une fourchette comprise entre 35 %
en Inde et 26 % pour la Chine.
D’ici 2050, on prévoit que la part de la population dépendante va progresser dans tous les pays de l’OCDE et ne
décliner que dans les économies non membres d’Inde et
d’Afrique du Sud. La part de la population dépendante
devrait dépasser les 45 % au Japon, en Corée, en Espagne et
en Italie d’ici là.
En 2010, la population jeune représentait environ 19 % de
la population totale des pays de l’OCDE (en moyenne), en
repli continu depuis les années 70. Cette tendance devrait
se poursuivre sous l’effet de la baisse des taux de fécondité. D’ici 2050, les jeunes devraient représenter 10 % de la
population totale au Japon et en Corée. Seuls Israël (26 %)
et le Mexique (21 %) dépasseraient la part moyenne des
jeunes dans la population totale de la zone OCDE.
En 2010, la part des personnes âgées dans la population
totale était comprise entre moins de 7 % en
Afrique du Sud, en Inde, en Indonésie et au Mexique, et
plus de 18 % en Allemagne, en Grèce, en Italie et au Japon
(la moyenne de l’OCDE s’élevait à 15 %). D’ici 2050, on prévoit que cette part sera d’environ 11 % en Afrique du Sud et
dépassera le tiers de la population totale en Grèce, en Italie,
en Espagne, en Corée et au Japon. On estime que la population âgée devrait fortement progresser entre 2010 et 2050
dans plusieurs pays. Ainsi, la progression de la part des
personnes âgées dans la population totale devrait surpasser 18 points de pourcentage en République slovaque, en
Espagne et en Corée. Néanmoins, on anticipe des augmentations moins marquées dans certains pays entre 2010 et
2050 : ainsi, en Afrique du Sud, en Estonie, aux États-Unis
et en Suède, la progression de la part de la population âgée
devrait être inférieure à 7 points sur la période considérée.
18
La population âgée comprend les personnes âgées de 65 ans et
plus, la population jeune comprend les personnes âgées de
moins de 15 ans. La part de la population dépendante est calculée comme la somme des populations âgées et jeunes rapportée au total de la population.
Comparabilité
Les prévisions démographiques par âge et par sexe proviennent de sources nationales lorsqu’il en existe ou, dans certains cas, des bases de données statistiques d’Eurostat et de
l’ONU.
Toutes les prévisions démographiques reposent sur des hypothèses concernant les tendances futures de l’espérance de vie,
des taux de fécondité et du solde migratoire, hypothèses qui
peuvent varier selon les pays. Souvent, un ensemble de projections est produit. Les estimations présentées ici correspondent
aux variantes médianes ou centrales de ces projections.
La Croatie n’est pas incluse dans l’UE 28.
Sources
• OCDE (2013), Statistiques de l’OCDE de la population active,
Éditions OCDE.
• Eurostat, Nations Unies, sources nationales et estimations
OCDE.
Pour en savoir plus
Publications analytiques
• Burniaux, J., R. Duval et F. Jaumotte (2004), “Coping with
ageing”, OECD Economics Department Working Papers, No. 371.
Publications statistiques
• OCDE (2013), Les pensions dans les pays de l’OCDE, Éditions
OCDE.
Bases de données en ligne • Statistiques de l’OCDE sur l’emploi et le marché du travail (Base de données) PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 POPULATION ET MIGRATION • POPULATION POPULATION DÉPENDANTE Part de la population dépendante En pourcentage de la population totale Population jeune (âgée de moins de 15 ans) Allemagne Australie Autriche Belgique Canada Chili Corée Danemark Espagne Estonie États-Unis Finlande France Grèce Hongrie Irlande Islande Israël Italie Japon Luxembourg Mexique Norvège Nouvelle-Zélande Pays-Bas Pologne Portugal République slovaque République tchèque Royaume-Uni Slovénie Suède Suisse Turquie UE-28 OCDE Afrique du Sud Brésil Chine Fédération de Russie Inde Indonésie Population âgée (65 ans et plus) 2000 2010 2020 2030 2040 2050 2000 2010 2020 2030 2040 2050 15.6 20.7 17.0 17.6 19.2 27.8 21.1 18.5 14.8 17.7 21.4 18.2 18.9 15.3 16.8 21.8 23.3 28.6 14.3 14.6 18.9 33.7 20.0 22.8 18.6 19.5 16.4 19.5 16.4 19.0 15.9 18.4 17.4 28.1 17.2 20.4 33.0 29.8 25.6 18.0 34.2 30.7 13.4 18.9 14.8 16.9 16.5 22.3 16.1 18.0 15.0 15.3 19.8 16.6 18.4 14.5 14.7 21.3 20.9 28.0 | 14.0 13.1 17.7 29.6 18.8 20.5 17.5 15.2 15.2 15.5 14.3 17.7 14.1 16.6 14.6 25.8 15.7 18.6 | 29.7 25.6 18.1 15.2 30.2 29.8 12.5 18.4 14.3 17.6 16.8 20.2 13.2 16.9 15.0 18.1 19.1 16.6 17.9 14.0 15.1 19.7 20.4 27.9 13.1 11.7 17.0 26.0 17.5 18.1 16.2 15.6 13.7 14.6 15.6 17.8 15.2 17.4 14.4 22.3 15.5 17.6 28.5 20.1 18.2 17.3 26.6 25.9 12.4 17.6 14.2 17.2 16.4 18.7 12.6 17.2 12.7 17.2 18.7 16.1 17.1 12.6 14.4 16.8 19.0 26.6 12.1 10.3 17.3 23.6 17.5 16.9 16.1 13.7 12.4 13.4 13.8 16.9 13.7 17.1 14.0 19.6 14.6 16.8 25.4 17.0 15.9 15.7 | 23.8 22.3 11.5 16.9 13.5 16.6 15.5 17.3 11.2 17.3 12.2 16.0 18.1 15.5 16.7 12.1 13.7 16.1 17.8 26.1 12.4 10.0 16.9 21.9 16.9 16.3 15.8 12.1 12.2 12.6 12.9 16.3 12.9 15.9 13.2 17.6 14.2 16.1 23.3 14.9 14.6 15.9 21.4 20.5 11.3 16.7 13.3 16.8 15.6 16.6 9.9 16.8 12.5 17.8 18.0 15.4 16.7 12.3 13.9 16.0 17.5 26.2 12.7 9.7 16.6 20.7 16.4 15.6 15.4 12.5 12.1 13.2 13.8 16.3 13.9 16.4 13.1 15.8 14.3 15.9 21.6 13.1 14.7 17.1 19.5 18.9 16.4 12.4 15.4 16.8 12.6 7.2 7.2 14.8 16.8 15.0 12.4 14.9 16.1 16.6 15.1 11.2 11.6 9.8 18.3 17.4 14.1 5.2 15.2 11.8 13.6 12.2 16.2 11.4 13.8 15.8 14.0 17.3 15.3 6.5 15.7 13.0 3.4 5.4 6.9 12.5 4.4 4.7 20.6 13.5 17.6 17.1 14.2 9.0 11.0 16.6 17.0 17.4 13.1 17.3 16.9 19.2 16.7 11.4 12.1 9.9 | 20.3 23.0 13.9 6.2 15.0 13.0 15.4 13.4 18.5 12.5 15.4 16.0 16.5 18.3 17.4 7.1 17.5 14.7 | 5.2 6.8 8.4 12.9 5.1 5.0 23.3 16.8 19.6 19.2 18.0 11.9 15.7 20.0 20.4 18.3 16.8 22.2 20.6 21.3 20.1 14.9 15.2 12.3 23.3 29.1 16.6 7.7 18.0 17.1 19.9 18.4 20.8 17.3 20.1 19.0 19.8 21.0 20.5 9.3 20.3 18.0 6.4 9.2 11.7 15.2 6.3 6.3 28.8 19.7 24.0 22.3 22.6 16.5 24.3 22.6 26.0 20.4 20.3 25.3 23.6 24.8 21.5 18.5 19.2 13.9 27.3 31.6 20.0 10.2 20.6 21.9 24.3 22.3 24.4 21.6 23.1 21.9 24.2 22.9 24.7 12.8 23.8 21.4 7.7 13.3 16.2 18.7 | 8.2 9.2 32.1 21.3 27.2 24.1 24.0 19.8 32.3 24.5 32.4 21.8 21.0 26.1 25.8 29.4 23.9 22.4 21.5 15.5 32.2 36.1 22.3 13.4 22.9 25.2 27.0 25.1 28.6 25.0 26.8 23.7 27.5 24.5 27.4 16.4 27.0 23.9 8.4 17.5 22.1 18.3 10.2 12.7 33.1 22.2 28.3 24.5 24.6 21.6 37.4 23.8 36.4 23.8 20.9 26.8 26.2 32.5 26.9 26.3 23.4 16.6 33.6 38.8 22.1 16.2 23.2 26.2 26.9 30.3 32.0 30.1 31.1 24.1 30.6 24.7 28.3 20.7 28.7 25.3 10.5 22.7 23.9 20.5 12.7 15.8 1 2 http://dx.doi.org/10.1787/888933038324 Part de la population dépendante En pourcentage de la population totale 2010 2050 50 40 30 20 10 0 1 2 http://dx.doi.org/10.1787/888933035588 PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014 19 POPULATION ET MIGRATION • POPULATION POPULATION PAR RÉGION À l’intérieur des pays, la population ne se répartit pas de manière uniforme d’une région à l’autre. Définition
Le nombre d’habitants d’une région donnée, autrement dit sa
population totale, peut s’exprimer en population annuelle
moyenne ou en population à une date spécifique au cours de
l’année considérée. La population moyenne au cours d’une
année civile est généralement calculée par la moyenne arithmétique de la population recensée au 1 janvier de deux années
consécutives. Certains pays estiment toutefois la population à
une date proche du 1 juillet.
Comparabilité
Le principal problème de l’analyse économique au niveau
infranational est l’unité d’analyse, c’est-à-dire la région. Ce
mot peut prendre des sens très différents à l’intérieur d’un
pays comme d’un pays à l’autre, et s’accompagner d’écarts
significatifs de superficie et de population.
La population des régions de l’OCDE varie, de 400 habitants
environ dans le Territoire de la capitale australienne (ACT)
hors Canberra (en Australie) à 38 millions en Californie (aux
États-Unis).
Pour surmonter ce problème et afin de faciliter les comparaisons entre régions d’un même niveau territorial, l’OCDE a
classé les régions de chaque pays selon deux niveaux territoriaux : le niveau supérieur (TL2), qui englobe 363 grandes
régions, et le niveau inférieur (TL3), qui se compose de 1 802
petites régions. Ces deux niveaux constituent un cadre de référence pour la mise en œuvre des politiques régionales dans la
plupart des pays. En Afrique du Sud, au Brésil, en Chine, en
Inde et en Russie, les régions identifiées correspondent uniquement au niveau supérieur (TL2). Cette classification, qui
dans les pays de l’Union européenne, est largement compatible avec celle d’Eurostat NUTS, facilite la comparaison entre
régions d’un même niveau territorial.
Toutes les données régionales présentées ici se rapportent aux
petites régions, à l’exception du Brésil, de la Chine, de l’Inde, de
la Fédération de Russie et de l’Afrique du Sud.
En outre, l’OCDE a établi une typologie régionale qui tient
compte des différences géographiques et permet de réaliser
des comparaisons pertinentes entre régions d’un même type.
Trois catégories ont été définies : les régions essentiellement
rurales, les régions intermédiaires et les régions essentiellement urbaines. Cette typologie repose sur le pourcentage de la
population vivant dans les collectivités rurales.
La base de données métropolitaine recense près de 1 200 zones
urbaines (population de 50 000 habitants ou plus) dans 29 pays
de l’OCDE. Les zones urbaines sont définies en fonction de leur
densité de population et des modes de déplacement, afin de
refléter non seulement les frontières administratives des villes
mais aussi leur fonction économique. Dans les pays de l’OCDE,
les zones urbaines sont considérées comme de grandes zones
métropolitaines lorsque leur population atteint 1.5 million
d’habitants ou plus, comme des zones métropolitaines lorsque
leur population est comprise entre 500 000 et 1.5
million d’habitants, comme des zones urbaines moyennes
lorsque leur population est comprise entre 200 000 et
500 000 habitants et comme de petites zones urbaines lorsque
leur population est comprise entre 50 000 et 200 000 habitants.
En bref
En 2012, 40 % environ de la population totale de la zone
OCDE était concentrée dans 10 % des régions. C’est en
Australie, au Canada, au Chili et en Islande que la concentration démographique est la plus forte, dans la mesure où
les différences de conditions climatiques et environnementales découragent l’installation des individus dans
certaines zones.
Les deux tiers de la population de l’OCDE résident dans des
zones urbaines, mais le vécu de ces habitants est très différent d’un pays à l’autre : 12 millions de Chiliens vivent
dans des zones urbaines mais la moitié d’entre eux habite
dans les grandes zones métropolitaines. Aux Pays-Bas, la
population urbaine s’élève aussi à 12 millions de personnes, mais 20 % seulement vivent dans les grandes
zones métropolitaines, et 50 % dans des zones urbaines de
taille moyenne ou petite.
En 2012, près de la moitié de la population totale de la zone
OCDE (48 %) vivait dans des régions essentiellement
urbaines, représentant environ 6 % de la superficie totale.
Les régions essentiellement rurales regroupent près d’un
quart de la population totale et couvrent 83 % de la superficie. En Irlande, en Finlande et en Slovénie, la part de la
population nationale vivant en milieu rural est deux fois
supérieure à la moyenne OCDE.
20
Sources
• OCDE (2013), Panorama des régions de l’OCDE, Éditions OCDE.
Pour en savoir plus
Publications analytiques
• OCDE (2013), Perspectives régionales de l’OCDE, Éditions OCDE.
Publications statistiques
• OCDE (2013), Statistiques de l’OCDE de la population active,
Éditions OCDE.
Bases de données en ligne
• Statistiques régionales de l’OCDE.
Sites Internet
• Développement régional, www.oecd.org/fr/gov/politiqueregionale.
• Statistiques et indicateurs regionaux, www.oecd.org/gov/
regional/statistiquesindicateurs.
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
POPULATION ET MIGRATION • POPULATION
POPULATION PAR RÉGION
Proportion de la population nationale dans
les 10 pourcent des régions avec la plus forte
concentration de population
Pourcentage de la population urbaine, selon
la taille des villes
2012
Pourcentage
1995
2012
Petites aires métropolitaines
Aires métropolitaines moyennes
Aires métropolitaines
Grandes aires métropolitaines
KOR
GRC
JPN
DNK
USA
HUN
AUT
CHL
CAN
TUR
MEX
OCDE
PRT
ITA
SWE
BEL
CZE
FRA
GBR
ESP
DEU
POL
NLD
CHE
SVN
SVK
NOR
LUX
IRL
FIN
EST
AUS
CAN
ISL
USA
MEX
CHL
TUR
ESP
GRC
SWE
OCDE
PRT
NZL
IND
BRA
ITA
KOR
FIN
CHE
ZAF
JPN
AUT
RUS
GBR
HUN
SVN
DEU
FRA
NLD
ISR
CHN
IRL
NOR
EST
BEL
CZE
DNK
POL
SVK
0
0
10
20
30
40
50
60
70
20
40
60
80
100
1 2 http://dx.doi.org/10.1787/888933035626
1 2 http://dx.doi.org/10.1787/888933035607
Part de la population nationale en zones
urbaines, intermédiaires et rurales
Part de la surface nationale en zones
urbaines, intermédiaires et rurales
Pourcentage, 2012
Pourcentage, 2012
Urbaines
Intermédiaires
Urbaines
Rurales
Intermédiaires
Rurales
NLD
BEL
DEU
ITA
GBR
TUR
KOR
JPN
ESP
USA
CHE
FRA
PRT
EST
OCDE
MEX
NZL
DNK
SVK
FIN
GRC
POL
CHL
SWE
IRL
AUT
CZE
CAN
HUN
AUS
NOR
SVN
ISL
NLD
BEL
GBR
KOR
AUS
DEU
CAN
JPN
PRT
ITA
TUR
CHL
ESP
OCDE
MEX
NZL
USA
CHE
GRC
FRA
DNK
FIN
IRL
AUT
POL
SWE
HUN
EST
NOR
CZE
SVK
ISL
SVN
0
20
40
60
80
100
1 2 http://dx.doi.org/10.1787/888933035645
PANORAMA DES STATISTIQUES DE L’OCDE 2014 © OCDE 2014
0
20
40
60
80
100
1 2 http://dx.doi.org/10.1787/888933035664
21
POPULATION ET MIGRATION • POPULATION
POPULATION ÂGÉE PAR RÉGION
Dans tous les pays de l’OCDE, la population âgée de 65 ans et
plus a augmenté de manière spectaculaire au cours des trente
dernières années, tant en taille qu’en proportion de la population totale. Il s’avère que, dans chaque pays, la population âgée
est généralement concentrée dans quelques zones, ce qui
signifie qu’un petit nombre de régions devront faire face à
diverses problématiques sociales et économiques spécifiques
liées au vieillissement de la population.
Définition
Comparabilité
Comme dans le cas des autres statistiques régionales, les
variantes de définition des régions et le caractère variable de la
géographie des localités rurales et urbaines, tant dans un
même pays que d’un pays à l’autre, influent sur la comparabilité des données relatives à la population âgée.
Toutes les données régionales présentées ici se rapportent aux
petites régions, à l’exception du Brésil, de la Chine, de l’Inde, de
la Fédération de Russie et de l’Afrique du Sud.
La population âgée est définie comme le nombre d’habitants
de 65 ans ou plus dans une région donnée. Il peut s’agir soit de
la population annuelle moyenne, soit de la population à une
date précise de l’année considérée. On calcule généralement la
population moyenne sur une année civile en faisant la
moyenne arithmétique de la population recensée au 1 janvier
de deux années consécutives.
Le taux de dépendance des personnes âgées est défini comme
le ratio de la population âgée rapporté à la population en âge de
travailler (15-64 ans).
En bref
Le vieillissement de la population touche la plupart des
pays de l’OCDE. Compte tenu de l’allongement de l’espérance de vie et du faible niveau du taux de fécondité, la
population âgée (65 ans et plus) composait près de 15 % de
la population de la zone OCDE en 2012, contre un peu plus
de 12 % dix-sept ans plus tôt. La proportion de la population âgée est beaucoup plus faible dans les économies
émergentes (Afrique du Sud, Brésil et Chine), ainsi qu’au
Chili, au Mexique et en Turquie.
| 5,452
|
29/hal.archives-ouvertes.fr-tel-01549770-document.txt_4
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 10,874
| 15,840
|
disposition de ces biens353. 205. Si le juge administratif semblait, à l'instar du législateur, assez favorable à la reconnaissance d'un patrimoine étendu au profit des autorités organisatrices, il semble en aller différemment depuis une décision du 11 mai 2016 (B).
B) La remise en cause par le juge administratif du principe d'appartenance à l'autorité concédante des biens indispensables au service public de la distribution d'électricité 206.
Le régime général applicable aux biens des concessions de service public, précisé par la jurisprudence « Commune de Douai » 354, est largement favorable à l'autorité concédante dans la mesure où il lui confère de plein droit – en ce sens que le contrat ne peut y déroger – la propriété des biens nécessaires au service public, tout en permettant aux parties de prévoir une faculté de reprise, par la personne publique, des biens du concessionnaire simplement utiles au service public (1). Néanmoins, le Conseil d'État a récemment opté pour une interprétation plus favorable au concessionnaire, justifiée par la spécificité du service public de la distribution publique d'électricité (2). 1 – Le régime des biens des concessions de service public, en principe favorable à l'autorité concédante (« Commune de Douai I ») 207. Un différend avait conduit la commune de Douai à saisir le Tribunal administratif de Lille d'une demande tendant notamment à se prononcer sur le statut des biens affectés à l'exécution du contrat de concession de distribution d'électricité. L'article L. 1321-1 du CGCT prévoit, à propos des transferts de compétences, que « le transfert d'une compétence entraîne de plein droit la mise à disposition de la collectivité bénéficiaire des biens meubles et immeubles utilisés, à la date de ce transfert, pour l'exercice de cette compétence ». 354 Conseil d'État, ass., 21 décembre 2012, Commune de Douai, préc. Voir notamment :
E. FATOME, Ph. TERNEYRE, « Le statut des biens des délégations de service public », AJDA, 2013, 15 avril 2013, p. 724 ; F. LLORENS, « La théorie des biens de retour après l'arrêt Commune de Douai », Contrats et Marchés publics, juillet 2013, n°7, p. 7-18 ; X. DOMINO, A. BRETONNEAU, « Biens de retour : gare aux boomerangs », AJDA, 2013, p. 457 ; J. FACON, « De l'inventaire des ouvrages des concessions de distribution d'électricité ou la réaffirmation par le Conseil d'État d'une plus grande transparence », Revue Lamy des Collectivités Territoriales, 2013, n°87 ; G. ECKERT, « Droit à l'information du concédant », Revue Contrats et Marchés publics, n° 2, février 2013, comm. 42 ; J.-S. BODA, Ph. GUELLIER, « Le Conseil d'État et le régime juridique des biens des délégations de service public, JCP A, n° 8, février 2013, p. 2044 ; O. DIDRICHE, AJCT, 2013, p. 91 ; Concl. B. DACOSTA, concl. sous Conseil d'État, 21 décembre 2012, Commune de Douai, n°342788 ; RFDA, 2013, p. 25. 353 90 Par un
arrêt du 30 juin 2010
355
, la Cour administrative d'appel de Dou avait annulé le jugement par lequel le Tribunal administratif de Lille avait qualifié les biens litigieux de biens de retour356. Mais, par sa décision du 21 décembre 2012 « Commune de Douai », le Conseil d'État a annulé cet arrêt, notamment en tant qu'il avait omis de qualifier les biens non nécessaires au service public, à savoir « les biens autres que les sous-stations, les postes transformateurs, le matériel électrique et mécanique, les canalisations et les branchements »357. La haute juridiction administrative en a profité pour préciser le régime de propriété des biens des concessions de service public, dans un sens favorable au patrimoine de l'autorité concédante, qu'il s'agisse des biens nécessaires au service public ou simplement utiles à ce service.
208. Bien
s né
cess
aires
au service public. Dès lors qu'ils sont « nécessaires » au service public – dans le sens où la continuité du service public ne pourrait pas être assurée sans eux –, les biens aussi qualifiés d'« indispensables » au service public, appartiennent à l'autorité concédante pendant la durée du contrat et reviennent obligatoirement et gratuitement à cette dernière en fin de contrat358. 209. Pendant la durée du contrat de concession, l'ensemble des biens, meubles ou immeubles, nécessaires au fonctionnement du service public, appartiennent à la personne publique dès leur réalisation ou leur acquisition, y compris lorsqu'ils ont été acquis ou créés par le concessionnaire 359. L'appropriation publique des biens nécessaires au service public permet ainsi de favoriser « la continuité et le bon fonctionnement du service au terme du contrat »360. Mais la portée de ce principe est affaiblie lorsque les biens sont établis sur une propriété privée. 210. En effet, lorsque les ouvrages nécessaires au service public sont construits sur une propriété privée, le contrat peut prévoir soit des droits réels sur ces biens, soit Cour administrative d'appel de Douai, 30 juin 2010, Commune de Douai, n°08DA01191. Tribunal administratif de Lille, 6 juin 2008, Commune de Douai, nos 0603967 et 0603968. 357 Conseil d'État, ass., 21 décembre 2012, Commune de Douai, préc., considérant 10. 358 Voir par exemple : Conseil d'État, 10 janvier 1938, Société du gaz franco-belge, n°29737, Lebon p. 1. : une usine acquise par un concessionnaire deux ans après la conclusion de la convention doit être remise gratuitement à la commune concédante en fin de concession et « nonobstant les contradictions apparentes », ladite commune doit être considérée « comme d'ores et déjà propriétaire des immeubles dont s'agit Voir également : Conseil d'État, 11 mai 1956, Compagnie des transports en commun de la région de Douai, Lebon p. 203 : « les parties ont eu essentiellement comme but de laisser à la disposition de l'autorité concédante en fin de concession les moyens matériels de continuer l'exploitation du service ». Pour un exemple plus récent, voir : Conseil d'État, sect. Travaux publics, 19 avril 2005, avis n°371234 : « l'ensemble des biens nécessaires au fonctionnement du service () appartiennent dès l'origine à la personne publique et lui font nécessairement retour gratuitement à l'expiration de la convention ». 359 Conseil d'État, ass., 21 décembre 2012, Commune de Douai, préc., considérant 2. 360 J.-S. BODA, « La consécration de la spécificité du régime juridique des biens affectés aux concessions de distribution d'électricité », Énergie Environnement Infrastructures, n°7, juillet 2016. 91
une appropriation privative temporaire de ces biens, au profit du concessionnaire, « sous réserve de comporter les garanties propres à assurer la continuité du service public, notamment la faculté pour la personne publique de s'opposer à la cession, en cours de délégation, de ces ouvrages ou des droits détenus par la personne privée »361. 211. En revanche, lorsque les ouvrages indispensables au service public sont établis sur une propriété publique, relevant ainsi du régime de la domanialité publique, le contrat ne peut restreindre le principe de leur appartenance à la collectivité concédante qu'à travers l'octroi de droits réels au cocontractant, dans les limites fixées par la loi362. Par sa décision du 21 décembre 2012, le Conseil d'État a donc rappelé les droits réels dont le concessionnaire peut bénéficier, en excluant toute appropriation privative363. Ainsi, conformément au principe d'inaliénabilité du domaine public des collectivités territoriales 364, ces biens ne peuvent faire l'objet d'une cession. 212. Dans tous les cas, si le droit de jouissance dont dispose le concessionnaire pendant la durée du contrat lui permet d'inscrire les biens de retour à l'actif de son bilan365, il reste que la jouissance de ces biens ne fait pas obstacle à leur retour à l'autorité concédante366. 213. En effet, en fin de délégation, le contrat qui accorde au concessionnaire, pour la durée de la convention, certains droits réels sur les biens nécessaires au service public ou la propriété de tels biens, ne peut s'opposer « au retour gratuit de ces biens à la personne publique » 367. Ces biens de retour reviennent « nécessairement » et « gratuitement » à l'autorité concédante à l'expiration du contrat, cette gratuité étant cependant limitée aux biens qui ont été « amortis » au cours de l'exécution du contrat368. Les parties n'ont alors plus la possibilité de déroger au retour de ces biens qui s'exerce de plein droit, sous réserve des clauses permettant au cocontractant de Conseil d'État, 21 décembre 2012, Commune de Douai, préc., considérant 4. Conseil d'État, 21 décembre 2012, Commune de Douai, préc., considérant 3. Les limites sont prévues aux articles L. 2122-6 à L. 2122-14 du code général de la propriété des personnes publiques (relatifs aux autorisations d'occupation temporaire sur le domaine de l'État) et aux articles L. 1311-2 à L. 1311-8 du CGCT (relatifs aux baux emphytéotiques administratifs et aux autorisations d'occupation temporaire sur le domaine des collectivités territoriales). 363 Les titulaires de BEA ou d'AOT constitutives de droits réels ne sont effectivement pas propriétaires des ouvrages qu'ils réalisent mais disposent uniquement de certains attributs attachés à leur propriété. 364 Article L. 1311-1 du CGCT : « les biens du domaine public des collectivités territoriales, de leurs établissements publics et de leurs groupements sont inaliénables et imprescriptibles ». 365 B. DACOSTA, concl. sous Conseil d'État, 21 décembre 2012, Commune de Douai, art. cit. 366 Cour de cassation, Civ. 1 ère, 3 mars 2010, n°08-21.311. 367 Conseil d'État, 21 décembre 2012, Commune de Douai, préc., considérant 6 368 Ibid. 361 362 92 récupérer les biens qui ne seraient plus nécessaires au fonctionnement du service public. Le retour gratuit à la personne publique concédante des biens nécessaires au service public constitue une fois encore « une exigence essentielle pour assurer la continuité du service public »369. 214. La catégorie des biens de retour a d'ailleurs été étendue par une décision du Conseil d'État rendue en février 2016, puisqu'elle comprend désormais les biens « qui ont été nécessaires au fonctionnement du service concédé à un moment quelconque de l'exécution de la convention », même s'ils ne sont plus nécessaires au fonctionnement du service public370. 215. Biens non nécessaires au service public. Par sa décision du 21 décembre 2012, le Conseil d'État a également confirmé l'idée selon laquelle le statut des biens non nécessaires au fonctionn du service public se caractérise « par une grande liberté contractuelle laissée aux parties »371. 216. D'une part, pendant la durée du contrat, « les biens qui n'ont pas été remis par le délégant au délégataire en vue de leur gestion par celui-ci372 et qui ne sont pas indispensables au fonctionnement du service public » sont, en principe, la propriété du délégataire « à moins que les parties n'en disposent autrement »373. Les parties pourraient donc très bien convenir dans le contrat que l'autorité concédante soit propriétaire des biens qui appartenaient déjà au concessionnaire avant la conclusion du contrat ou qui ont été acquis ou créés par lui au cours du contrat et qui sont utilisés pour les besoins de l'exploitation, sans qu'ils soient pour autant indispensables au fonctionnement du service. D'autre part, à l'expiration du contrat de concession, les biens appartenant au délégataire374 non nécessaires au service public pourront également entrer dans la propriété de l'autorité concédante si cette dernière use de son droit de reprise375, et G. ECKERT, « Le Conseil d'État clarifie le régime des biens de retour », Contrats et Marchés publics, n°2, février 2013, comm. 41. 370 Conseil d'État, 26 février 2016, Syndicat mixte de chauffage urbain de la Défense, n°384424, mentionné aux tables. 371 L. JANICOT, J.-F. LAFAIX, « Le juge administratif, le contrat et la propriété des biens de retour », RFDA, 2013, p. 513. 372 Puisqu'ils n'ont pas été remis par le délégant, les biens en question sont à la fois les biens du délégataire qui lui appartenaient avant la conclusion du contrat et les biens qui ont été acquis ou créés par ce délégataire au cours de l'exécution du contrat. 373 Conseil d'État, 21 décembre 2012, Commune de Douai, préc., considérant 5. 374 En l'absence de précision, ces biens devraient, ici encore, englober à la fois les biens affectés au service qui étaient la propriété du délégataire avant la conclusion du contrat et les biens acquis ou créés par le délégataire dans le cadre de la convention. 375 Conseil d'État, 8 juin 1928, Communes de Barges, Gésincourt, Cemboing et Com fontaine c/ Société d'intérêt collectif agricole électrique de Ray-Cendrecourt, Lebon p. 718 ; Conseil d'État, 1er février 1929, 369 93 rien ne s'oppose à ce que les parties prévoient leur retour gratuit à la personne publique376. Ce faisant, le juge administratif s'efforce de préserver le consentement des parties qui souhaitent étendre la liste des biens susceptibles d'entrer dans le patrimoine de l'autorité concédante, toujours afin de préserver la continuité de l'exploitation du service public. 2 – Le régime des biens des concessions de distribution d'électricité et de gaz, favorable au concessionnaire (« Commune de Douai II »)) 217. Par une décision du 11 mai 2016, venue clôturer le litige opposant la commune de Douai et la société ERDF, le Conseil d'État a consacré la spécificité du régime des biens affectés aux concessions de distribution d'électricité. En l'espèce, la Cour administrative d'appel, devant laquelle l'affaire avait été renvoyée, avait qualifié de « biens propres » les immeubles constitués de bureaux, restaurants et leurs parkings ainsi que les logements hébergeant des agents de la société ERDF377. 218. C'est cette qualification qui a été confirmée par le Conseil d'État, affirmant ainsi l'existence surprenante de biens propres au concessionnaire mais nécessaires au service public. Pour appuyer son raisonnement, le juge s'est fondé sur les spécificités du régime des concessions de distribution d'électricité. Tout d'abord, le contrat de concession conclu par la commune de Douai a été transféré à la société EDF, en application de la loi de nationalisation, avant d'être transféré à la société ERDF378, devenue Enedis, qui constitue « le seul concessionnaire possible des contrats de concession » sur la plus grande partie du territoire national379. La spécificité de ce secteur se manifeste ensuite à travers la fixation, par la Commission de régulation de l'énergie, d'un tarif d'acheminement unique pour l'ensemble des usagers380. Enfin, les sociétés gestionnaires des réseaux publics de distribution d'électricité et de gaz Compagnie centrale d'énergie électrique, Lebon p. 133 ; Tribunal des conflits, 2 décembre 1968, EDF c/ Dame veuve Faucher et Commune de Port Louis, n°1913, Lebon p. 803. Voir plus récemment : Conseil d'État, ass., 21 décembre 2012, Commune de Douai, préc., considérant 7 : « les parties peuvent conveni d'une faculté de reprise par la personne publique, à l'expiration de la délégation ou de la concession, et moyennant un prix, des biens appartenant au délégataire qui ne sont pas nécessaires au fonctionnement du service ». 376 Conseil d'État, ass., 21 décembre 2012, Commune de Douai, préc., considérant 7 : « aucun principe ni aucune règle ne fait obstacle, s'agissant de ces biens susceptibles d'une reprise, à ce que le contrat prévoie également leur retour gratuit à la personne publique au terme de la délégation ». 377 Cour administrative d'appel de Douai, 10 décembre 2013, Commune de Douai, n°12DA01949, considérants 6 et 7. 378 1° de l'article L. 111-52 du code de l'énergie. 379 Conseil d'État, 11 mai 2016, Commune de Douai, n°375533, mentionné aux tables, considérant 3. 380 Articles L. 341-2 et L. 94 sont tenues de créer un service commun « pour la construction des ouvrages, la maîtrise d'oeuvre de travaux, l'exploitation et la maintenance des réseaux, les opérations de comptage ainsi que d'autres missions afférentes à ces activités »381. Dès lors, dans le cadre de la gestion des différents contrats dont la société ERDF est titulaire, il lui est loisible « d'affecter un bien simultanément à l'exploitation de plusieurs concessions de distribution d'électricité ou d'en autoriser l'utilisation simultanée par la société GRDF en sa qualité de titulaire des contrats de concession de distribution de gaz » 382. L'ensemble de ces spécificités doit alors être pris en compte pour définir le régime juridique des biens affectés aux concessions de distribution d'électricité. Il en résulte que les biens affectés concurremment à plusieurs concessions de service public de distribution d'électricité et, le cas échéant, également à des concessions de distribution de gaz par ERDF, « demeurent la propriété de cette dernière, à laquelle il revient d'assurer la cohérence du réseau de ses concessions et de maintenir la péréquation des tarifs d'utilisation du réseau public de distribution ». En conséquence, « ces biens ne sauraient être la propriété des différentes collectivités territoriales ou des différents établissements publics de coopération qui concluent avec cette société les contrats de concession propres aux territoires qu'ils administrent »383. En l'espèce, la Cour administrative d'appel de Douai n'a donc pas commis d'erreur de droit en qualifiant les immeubles litigieux de biens propres de la société ERDF, alors même « qu'ils étaient affectés au moins pour partie au service public de distribution d'électricité »384. 219. Il est vrai que ces biens, « certes nécessaires au service public, mais partagés entre plusieurs services publics locaux n'auraient sans doute pas pu être qualifiés de biens de retour puisqu'une telle qualification aurait conduit à « une sorte de propriété partagée entre les différentes collectivités concédantes » 385. 220. Il reste que par cette solution, la haute juridiction administrative déroge au principe selon lequel les biens indispensables au fonctionnement du service public constituent des biens de retour, ceci afin de tenir compte de « l'organisation particulière de la distribution d'électricité » 386. Or, en diminuant leurs possibilités de récupérer gratuitement, en fin de contrat, les biens qui sont pourtant nécessaires au fonctionnement du service public, cette dérogation au régime de droit commun Article L. 111-71 du code de l'énergie. Conseil d'État, 11 mai 2016, Commune de Douai, préc., considérant 3. 383 Ibid., considérant 4. 384 Ibid., considérant 5. 385 G. ECKERT, « Régime des biens dans les concessions de distribution d'électricité », Contrats et Marchés publics, n°7, juillet 2016, comm. 183. 386 Ibid. 381 382 95 apparaît « fragilisante pour les autorités concédantes » 387. En effet, si la mise en concurrence des concessions de distribution d'électricité et de gaz venait à s'imposer, la marge de manoeuvre de la collectivité concédante se trouverait alors particulièrement limitée, puisque dans le cas où elle souhaiterait conclure un nouveau contrat avec un concessionnaire autre qu'Enedis, cette dernière ne serait pas tenue de lui restituer les biens pourtant indispensables au service public. De nombreux biens pourraient alors être concernés puisque la décision du Conseil d'État risque d'inciter le concessionnaire à « instrumentaliser la pratique de la multi-affectation de (ses) infrastructures pour faire échec au retour de ces biens »388. Une telle situation est néanmoins peu probable puisque la fin du monopole obligerait le juge administratif à revoir sa solution. La société Enedis ne serait plus le concessionnaire obligé des autorités concédantes. Or, c'est en partie ce monopole qui caractérise la spécificité du secteur de la distribution d'électricité et qui justifie ainsi la particularité du régime juridique des biens affectés aux concessions de distribution d'électricité. 221. La décision du 11 mai 2016 a au moins permis de rappeler l'obligation pour le concessionnaire de communiquer à l'autorité concédante « toutes informations utiles »389. Il est vrai qu'en tant que propriétaires des ouvrages des réseaux publics de distribution, les autorités concédantes sont censées connaître avec exactitude l'étendue de leur p . Cette connaissance est d'autant plus nécessaire qu'elle leur permet d'assurer le contrôle du service public concédé (II). II.
L'affaiblissement problématique du droit à l'information des autorités concédantes
222. Parce que le contrôle du service public de la distribution d'électricité et de gaz et des réseaux est nécessaire au bon fonctionnement de ce service, le législateur a progressivement consacré une mission de contrôle au profit des autorités concédantes tout en leur permettant de solliciter, auprès du concessionnaire, les informations utiles à l'exercice de ce pouvoir (A). P. TERNEYRE, art. cit. : « la collectivité publique délégante dispose d'un pouvoir général de contrôle sur l'exécution du contrat, pouvant s'exercer en dehors ou au-delà des stipulations contractuelles dès lors que son exercice est justifié par la bonne organisation et le bon fonctionnement du service public et qu'il ne tend pas à une immixtion du concédant dans l'exécution proprement dite des obligations contractuelles ». 391 P. SABLIERE, op. cit., p. 813 : « il est de l'essence même de la concession que l'autorité concédante puisse contrôler l'activité de son concessionnaire sans pouvoir cependant s'immiscer dans sa gestion ». Voir également : A. de LAUBADERE, F. MODERNE et P. DEVOLVE, Traité des contrats administratifs, LGDJ 390 97 226. En matière de distribution d'énergie, c'est le premier paragraphe de l'article L. 2224-31 du CGCT, introduit par la loi du 10 février 2000392 et modifié par la loi du 3 janvier 2003393, qui prévoit le pouvoir de contrôle des autorités concédantes. Plus précisément, les collectivités assurent le contrôle « du bon accomplissement des missions de service public fixées () par les cahiers des charges »394 ainsi que « des réseaux publics de distribution d'électricité et de gaz ». L'autorité concédante est donc tenue de vérifier l'efficacité des moyens mobilisés par le concessionnaire pour satisfaire aux obligations prévues par le cahier des charges de la concession. 227. Il n'a cependant pas fallu attendre la loi du 10 février 2000 pour voir émerger un pouvoir des autorités concédantes de la distribution d'énergie en matière de contrôle et d'inspection technique des ouvrages 395. Ainsi, la loi du 15 juin 1906 prévoyait la compétence des « agents délégués par les municipalités » pour exercer « le contrôle la construction et de l'exploitation », dans le cadre des concessions données par les communes ou les syndicats de communes396. Un décret du 17 octobre 1907 a confirmé l'obligation, pour les communes et syndicats de communes exerçant la compétence d'autorité concédante de la distribution d'énergie électrique, d'organiser le contrôle de la distribution397. Le Conseil d'État a par la suite implicitement affirmé la compétence de principe des autorités concédantes pour exercer le contrôle des concessions de distribution de gaz en jugeant illégal un arrêté en date du 4 décembre 1946, pris par le préfet pour se substituer d'office à une municipalité en vue d'organiser le contrôle technique d'une concession de distribution de gaz398. En effet, 1984, t. 98 aucune disposition législative n'attribuait alors au représentant de l'État une telle faculté, la loi du 16 novembre 1940 qui conférait aux autorités de tutelle un droit général de substitution399 ayant été supprimée en 1945400. 228. Il restait encore l'article 7 du décret du 17 octobre 1907 qui prévoyait, non seulement la possibilité pour le préfet de mettre en demeure une commune ou un syndicat de communes qui n'aurait pas assuré ce contrôle dans le délai légal de deux mois, mais aussi, dans le cas d'un refus d'obtempérer à cette injonction à l'issue d'un nouveau délai de deux mois, le transfert de l'exercice du contrôle aux agents de l'État – quoique cette disposition ait pu être considérée comme implicitement abrogée par les lois de décentralisation401. 229. Surtout, la nationalisation des entreprises privées électriques et gazières, instituée par la loi du 8 avril 1946, a largement contribué à réduire le pouvoir de contrôle des autorités concédantes. Cette loi a effectivement conduit à ce que les concessionnaires EDF et GDF, en tant qu'établissements publics nationaux, soient contrôlés non plus seulement par les autorités concédantes mais également par l'État, à tel point que s'est produit « une véritable concurrence » entre ces deux types de contrôle, au profit du second 402. En effet, les cahiers des charges type pour les concessions des distributions publiques d'électricité et de gaz, approuvés respectivement par les décrets du 22 novembre 1960 et du 27 octobre 1961 pour tenir compte, notamment, des situations nouvelles résultant de la nationalisation, ont fait du contrôle des autorités concédantes un « premier degré de contrôle »403 précédant les nombreux contrôles exercés par l'État. Ainsi, l'article 30 du cahier des charges pour la distribution publique d'énergie électrique prévoyait la possibilité pour l'autorité concédante d'exercer son contrôle sur le concessionnaire en procédant, à tout moment, à toutes vérifications utiles pour l'exercice de leur fonction et, en cas de manquement par le concessionnaire à ses obligations, d'établir un procès-verbal de Loi du 16 novembre 1940 relative au pouvoir de substitution de l'autorité supérieure aux délégations spéciales, à l'administration cantonale et aux secrétaires de mairie, publiée au JORF du 12 décembre 1940 p. 6075. 400 Ordonnance n°45532 du 31 mars 1945 relative au rétablissement de la légalité républicaine. 401 La disparition des tutelles administratives rend caduques ces dispositions qui prévoyaient en particulier, en cas de carence des collectivités locales à pourvoir au contrôle leur appartenant, un pouvoir de substitution du préfet. Voir en ce sens : P. SABLIERE, op. cit., p. 814 et p. 1449. 402 A. de LAUBADERE, F. MODERNE et P. DEVOLVE, op. cit., n°1186, à propos du contrôle exercé par l'administration concédante sur l'exécution d'un contrat de concession de service public : « le contrôle de l'État (gestion financière, investissements, autorisations d'emprunts, statut du personnel) a réduit sensiblement le contrôle exercé par les collectivités concédantes elles-mêmes ». 403 J. VIROLE, « Le cahier des charges type pour les distributions publiques d'énergie électrique concédées à Électricité de France » AJDA, 1961, p. 397 et s. 399 99 constat devant être « communiqué au préfet et au ministre chargé de l'électricité »404. 230. L'importance du rôle de l'État en la matière se manifestait surtout par la diversité des moyens mis à sa disposition en vue de contrôler, depuis 1946, les entreprises nationalisées, en particulier les établissements publics industriels et commerciaux dont EDF et GDF faisaient partie avant d'être transformées en sociétés anonymes par la loi du 9 août 2004405. Parmi ces contrôles, certains sont désormais limités à EDF et à sa filiale Enedis puisque l'État détient plus de 70% de son capital406, tandis qu'il ne détient, depuis 2006, que le tiers du capital de la société GDF-Suez, devenue Engie407. 231. D'un côté, le contrôle dit « épisodique » 408 relève à la fois des commissaires aux comptes institués en 1946 409 et de la des comptes créée en 1967 410. De l'autre, le contrôle « permanent » – abstraction faite du pouvoir de contrôle confié aux commissions parlementaires411 – s'illustre à la fois par la présence d'une mission de contrôle économique et financier 412 désignée par le ministre de l'Économie et des Finances, ainsi que par une « tutelle technique » 413 exercée par un commissaire du Article 30 de l'ancien cahier des charges type de concession pour le service public de la distribution d'énergie électrique. 405 L'article 24 de la loi n°2004-803 du 9 août 2004, préc. 406 Article L. 111-67 du code de l'énergie (ancien article 24 de la loi n°2004-803 du 9 août 2004, préc 407 Article L. 111-68 du code de l'énergie (ancien article 24 de la loi n°2004-803 du 9 août 2004, préc., tel que modifié par la loi n°2006-1537 du 7 décembre 2006, préc.) 408 G. LESCUYER, Le contrôle de l'État sur les entreprises nationalisées, LGDJ, 1962. 409 Article 4 de la loi n°46-628 du 8 avril 1946 sur la nationalisation de l'électricité et du gaz, publiée au JORF du 9 avril 1946 p. 2951. 410 Article 1er de la loi n°67-483 du 22 juin 1967 relative à la Cour des comptes. Ces attributions étaient initialement exercées par une Commission de Vérification des comptes, instituée par les articles 56 à 59 de la loi de finances du 6 janvier 1948, publiée au JORF du 23 juin 1967 p. 6211. 411 L'article 30 de la loi du 8 avril 1946, préc., prévoyait à ce titre le dépôt sur le bureau du Parlement, par le ministre chargé de la production industrielle, d'un « rapport sur la situation de l'Électricité et du Gaz de France ». 412La mission de contrôle économique et financier comprenait à la fois des contrôleurs d'État chargés de la surveillance d'EDF et de GDF (dont les attributions ont été fixées par l'ordonnance du 23 novembre 1944, publiée au JORF du 7 décembre 1944 p. 1726 et élargies par le décret n°53-412 du 11 mai 1953 fixant les conditions de fonctionnement des missions de contrôle économique et financier, publié au JORF du 12 mai 1953 p. 4330) ainsi qu'un chef de mission de contrôle (institué par le décret n°50-968 du 12 août 1950). Depuis l'entrée en vigueur de la loi n°2006-1537 du 7 décembre 2006, préc., le décret n°55-733 du 26 mai 1955, publié au JORF du 1 juin 1955 p. 5547, prévoyant l'existence de missions de ontrôle économique et financier sur les sociétés dans lesquelles l'État détient plus de 50 % du capital, ne s'applique plus à Engie (anciennement « GDF-Suez »). À noter que le décret n°2005436 du 9 mai 2005, publié au JORF n°107 du 10 mai 2005 p. 8086 a substitué aux corps de contrôle un seul « contrôle général économique et financier ». 413 R. BRONNER, « Les entreprises publiques et le droit des sociétés », Cahiers juridiques de l'électricité et du gaz, juin 1994, p. 263. 404 100 gouvernement aujourd'hui désigné par le ministre chargé de l'énergie414. b – Un pouvoir d'autant plus limité en l'absence d'information 232. Le phénomène tendant à la réduction du pouvoir de contrôle des autorités concédantes a été accentué par le fait que les informations mises à leur disposition pour exercer leur compétence étaient relativement limitées. Ainsi, l'article 36 de la loi de nationalisation se contentait de prévoir la communication à ces dernières des « rapports et comptes annuels du service de distribution », tandis que l'article 30 du cahier des charges type pour la concession d'une distribution publique d'énergie électrique fixait une liste réduite de documents devant être fournis par le concessionnaire, soit d'office (« état des consommations d'électricité et des recettes correspondantes », « plans du réseau »), soit à la demande de l'autorité concédante (« plans mis à jour de telle partie du réseau basse tension ou haute tension », « contrats d'achat et de fourniture d'énergie électrique souscrits par le concessionnaire »). 233. Or, en l'absence d'information précise, notamment sur l'étendue du patrimoine concédé, les autorités concédantes n'étaient pas en mesure d'assurer l'exercice de leur mission de contrôle415. La mauvaise connaissance du patrimoine est d'autant plus regrettable qu'elle empêche la collectivité concédante de contester, éventuellement devant le juge administratif, la qualification par le concessionnaire de biens de reprise pour des ouvrages qui correspondraient en réalité à des biens de retour, lesquels reviennent automatiquement et gratuitement à l'autorité concédante, à la différence des biens de reprise qui entrent dans sa propriété moyennant un prix. 234. L'efficacité du contrôle était également limitée par le fait que la plupart des collectivités, notamment les communes, ne disposaient pas des capacités d'expertise technique leur permettant d'effectuer ces contrôles et recouraient donc souvent aux 414L'existence et les attributions du commissaire du gouvernement ont été expressément officialisées et renforcées par le décret n°53-413 du 11 mai 1953 relatif au contrôle technique, économique et financier d'Électricité de France, de Gaz de France, des Charbonnages de France et des houillères de bassin qui est venu lui consacrer un droit de véto, aux côtés du droit d'assister aux séances du conseil d'administration et de formuler des observations. Désormais, le rôle du commissaire du gouvernement est prévu par l'article 3 du décret du 17 novembre 2004, modifié par le décret du 23 avril 2012, pour EDF et par l'article L. 111-70 du code de l'énergie pour Engie. 101 agents du gestionnaire. Ces derniers étaient alors amenés à inspecter leurs propres installations, le contrôleur et le contrôlé appartenant à la même entité416. Le doute était alors permis quant à l'impartialité et l'efficacité d'un tel contrôle. C'est la raison pour laquelle la loi du 10 février 2000417 a prévu la désignation, par les autorités concédantes, d'« un agent du contrôle distinct du gestionnaire du réseau public de distribution »418. 235. Enfin, le cahier des charges type de 1960 ne prévoyait pas de sanction efficace en cas de manquement par le concessionnaire des obligations prévues au cahier des charges 419. L'autorité concédante avait seulement la possibilité de porter la contestation devant le préfet et, le cas échéant, devant le Comité de conciliation de la distribution d'électricité. La procédure ne revêtait alors un aspect contentieux qu'en cas d'échec de la conciliation, à travers la saisine du Conseil supérieur de l'électricité et du gaz, devenu le Conseil supérieur de l'énergie. Désormais, bien que cette disposition soit peu appliquée420, le D de l'article 32 du modèle actuel du cahier des charges de concession pour le service public de la distribution d'énergie électrique prévoit la possibilité pour l'autorité concédante de mettre en demeure le concessionnaire de produire les documents prévus par ce même article et, le cas échéant, d'imposer à ce concessionnaire le versement d'une pénalité. 236. Cette évolution du régime des sanctions est révélatrice d'un mouvement plus général tendant au renforcement du pouvoir de contrôle des autorités concédantes à compter de la loi du 10 février 2000 relative à la modernisation et au développement Rapport d'information n°623 fait au nom de la Délégation aux collectivités territoriales et à la décentralisation sur les collectivités territoriales, sur : « er les sources d'énergies locales », présenté par Cl. BELOT, enregistré à la présidence du Sénat le 4 juin 2013. 417 Article L. 2224-31 du CGCT, créé par l'article 17 de la loi n°2000-108 du 10 février 2000 relative à la modernisation et au développement du service public de l'électricité, publiée au JORF n°35 du 11 février 2000 p. 2143. Article L. 2224-31 du CGCT, créé par l'article 17 de la loi n°2000-108 du 10 février 2000, préc., modifié par l'article 14 de la loi n°2003-8 du 3 janvier 2003, préc. 422 Le projet de loi relatif à la modernisation et au développement du service public de l'électricité, tel qu'adopté en première lecture par le Sénat, prévoyait initialement la compétence des collectivités pour assurer « le contrôle et l'inspection technique des ouvrages de la distribution publique d'électricité ». L'Assemblée nationale n'a toutefois pas retenu cet amendement en dernière lecture. 423 Rapport n°175 fait au nom de la Commission des affaires économiques, présenté par H. REVOL, enregistré à la présidence du Sénat le 20 janvier 2000, p. 32 : « l'obligation de transparence qui s'impose aux concessionnaires porte sur toutes les activités de distribution afin de permettre un contrôle étendu de la part des autorités concédantes ». Le rapporteur rappelle ainsi les observations formulées en première lecture par la Commission des affaires économiques du Sénat aux termes desquelles il avait été proposé que soit inséré un alinéa additionnel après le deuxième alinéa du I de l'article L. 2224-31 du CGCT afin « de souligner que l'obligation de transparence qui s'impose au concessionnaire porte sur toutes les activités de service des organismes de distribution (conclusion des contrats, fourniture de courant, facturation) et non pas seulement sur celle de gestionnaire de réseau et de mentionner, en conséquence, qu'outre les informations d'ordre économique et commercial, chaque organisme de distribution doit communiquer à l'autorité concédante les données industrielles, financières ou techniques nécessaires pour qu'elle exerce son contrôle ». 424 Article L. 2224-31 du CGCT, tel que modifié par l'article 35 de la loi n°2004
803 du 9 août 2004 relative au service public de l'électricité et du gaz et aux entreprises électriques et gazières. 421 103 a – L'obligation de communiquer un « inventaire détaillé et localisé » des ouvrages de la concession, à la demande des autorités concédantes 239. Une consécration prétorienne par la décision « Commune de Douai ». L'obligation pour le concessionnaire de communiquer, à l'autorité concédante, à sa demande, « un inventaire précis des ouvrages de la concession », a été dégagée par la décision du Conseil d'État du 21 décembre 2012 « Commune de Douai » 425, dans le cadre d'un litige « révélateur des difficultés auxquelles peut se heurter l'administration, au stade de l'exécution du contrat, face à un concessionnaire bénéficiant d'un monopole national, comme c'est le cas de la société ERDF »426. En l'espèce, la commune de Douai avait sollicité de son concessionnaire un inventaire des biens de la concession que celui-ci avait refusé de lui fournir au motif, selon lui, qu'il n'existait ni d'obligation légale, ni au cas présent, de stipulation contractuelle en ce sens. La commune s'était donc adressée au juge du contrat afin qu'il prononce une injonction tendant à ce que la société ERDF lui fournisse un inventaire des biens de la concession, situés sur son territoire. 240. Sur le fondement des dispositions de l'article L. 2224-31 du CGCT relatives au contrôle qu'exercent les autorités concédantes sur les réseaux publics de distribution d'énergie et à la communication par le concessionnaire de la valeur des ouvrages concédés, le Tribunal administratif de Lille avait fait droit à la demande de la commune427. Selon le juge du fond, le concessionnaire « doit au minimum tenir à disposition de la collectivité concédante, au titre des informations techniques utiles à l'exercice de son contrôle, un inventaire annuel physique détaillé de l'ensemble des biens, mobiliers et immobiliers, utilisés pour le service de la distribution électrique sur le territoire de cette collectivité, afin de permettre notamment à celle-ci d'apprécier le caractère de bien de retour, de biens de reprise ou de biens propres de ces biens au regard des clauses du contrat ». 241. Pourtant, la Cour administrative d'appel de Douai 428 avait par la suite infirmé ce jugement au motif, selon elle, qu'il n'existe de droit à l'information que si une stipulation contractuelle ou une disposition légale le prévoit expressément. Or, d'une part, il ne ressort d'aucune clause du cahier des charges que le concessionnaire serait tenu d'établir et de communiquer à la commune un inventaire physique des biens utilisés par la concession. D'autre part, en matière de distribution d'électricité, Conseil d'État, 21 décembre 2012, Commune de Douai, n°342788, Lebon p. 477, considérant 11. J.-S. BODA et Ph. GUELLIER, art. cit. 427 Tribunal administratif de Lille, 6 juin 2008, Commune de Douai, nos 0603967 et 0603968. 428 Cour administrative d'appel de Douai, 30 juin 2010, Commune de Douai, DA01191. 104 aucune
disposition
lég
ne fait mention d'une obligation pour le concessionnaire de transmettre un inventaire physique individualisé des biens utilisés pour la gestion du service. La commune ne pouvait pas non plus se prévaloir des règles applicables aux délégations de service public issues de la loi dite « Sapin »429, y compris l'article L. 1411-3 du CGCT qui prévoit l'obligation pour le délégataire de produire chaque année à l'autorité délégante un rapport, comprenant notamment un « inventaire des biens désignés au contrat comme des biens de retour et de reprise du service délégué »430. En effet, l'article L. 1411-12 exclut l'application de ces dispositions lorsque la loi institue un monopole au profit d'une entreprise, ce qui est a priori le cas de la société ERDF431. Il n'est cependant pas évident qu'un droit exclusif justifie une réduction du droit à l'information de l'autorité concédante432. 242. C'est donc de manière particulièrement opportune que le Conseil d'Etat433 est venu annuler l'arrêt de la Cour administrative d'appel sur ce point, conformément aux recommandations de son rapporteur public qui l'invitait à reconnaître, parmi les prérogatives du concédant, le droit « d'obtenir, avant même le terme de la concession, s'il l'estime utile, un inventaire des biens utilisés par le concessionnaire dans le cadre de la convention ». Selon le rapporteur public, cette prérogative doit exister même en l'absence de texte car elle est justifiée par la nécessité « d'éviter que le concessionnaire ne puisse distraire de la concession des biens qui lui sont directement liés qui ont été financés par l'usager », étant entendu que la plupart de ces biens reviendront en principe à l'autorité concédante en fin de concession. En tout état de cause, dans le cadre des concessions de distribution d'énergie, cette prérogative peut s'appuyer sur une base textuelle. En effet, selon la haute juridiction administrative, non seulement, il résulte des principes de la délégation de service public « que le cocontractant du concédant doit lui communiquer toute information utile sur les biens de la délégation »434 mais, en plus, s'agissant plus précisément des concessions Loi n°93-122 du 29 janvier 1993 relative à la prévention de la corruption et à la transparence de la vie économique et des procédures publiques, publiée au JORF n°25 du 30 janvier 1993, p. 1588, codifiée aux articles L. 1411-1 à L. 1411-11 du CGCT. 430 Article R. 1411-7 du CGCT. 431 Cour administrative d'appel de Douai, 30 juin 2010, Commune de Douai, préc. : « qu'ainsi, ce concessionnaire occupe, en conséquence desdites dispositions, une position de monopole qui l'exclut de ce fait du champ d'application de l'obligation de produire à l'autorité délégante le rapport qui comprend l'inventaire des biens désignés au contrat comme des biens de retour en application des dispositions des articles L. 1411-3 et R. 1411-7 précités du Code général des collectivités territoriales ». 432 G. ECKERT, « Biens de retour : notion et inventaire », Contrats et Marchés publics, n°11, novembre 2010, comm. 390. 433 Conseil d'État, 21 décembre 2012, Commune de Douai, préc. 434 G. ECKERT, art. cit. : le pouvoir de contrôle, et, corrélativement, le droit à l'information, résulte des principes de la délégation de service public car « la collectivité ne peut se désintéresser de la gestion du service public qu'elle a déléguée ». Voir en ce sens les conclusions rendues par le commissaire du gouvernement à propos de la décision Conseil d'État, 18 juillet 1930, Compagnie des chemins de fer PLM 429 105 de d'électricité et de gaz, les dispositions de l'article L. 2224-31 du CGCT obligent le concessionnaire, « pour permettre à l'autorité concédante d'exercer son contrôle sur le service public concédé, de lui communiquer, à sa demande, toutes informations utiles, notamment un inventaire précis des ouvrages de la concession, avec la détermination de leur valeur brute, de leur valeur nette comptables et de leur valeur de remplacement » 435. Ce faisant, le Conseil d'État consacre, de manière générale, un droit à l'information utile du concédant et, plus particulièrement en matière d'énergie, un droit à l'inventaire des biens de la concession de distribution, même en l'absence de disposition législative ou de stipulation contractuelle en ce sens. 243. Une consécration législative par la loi du 17 août 2015. Il a fallu attendre l'adoption de la loi relative à la transition énergétique pour que le législateur modifie l'article L. 2224-31 du CGCT, conformément à la jurisprudence « Commune de Douai », afin d'obliger les organismes de distribution d'électricité à mettre à la disposition des autorités concédantes, lorsqu'elles en font la demande pour ce qui concerne la distribution d'électricité, « un inventaire détaillé et localisé » des ouvrages de la concession, lequel « distingue les biens de retour, les biens de reprise et les biens propres »436. En matière de gaz, cet inventaire est intégré au compte-rendu d'activité transmis chaque année par l'organisme de distribution437. b - L'obligation de communiquer un compte-rendu d'activité « à la maille de la concession » 244. Une consécration prétorienne par l'arrêt « SIPPEREC ». Tant les dispositions du modèle de cahier des charges de concession pour la distribution d'énergie électrique438 que celles du modèle de cahier des charges de concession pour et autres, Lebon p. 753, RDP, 1931, p. 141, concl. Josse : « le concessionnaire gère, l'administration contrôle ». 435 Conseil d'État, 21 décembre 2012, Commune de Douai, préc., considérant 11. 436 Article L. 2224-31-I alinéa 3 du CGCT, tel que modifié par l'article 153 de la loi n°2015-992 du 17 août 2015, JORF n°0189 du 18 août 2015 p. 14263. 437 Article D. 2224-50 du CGCT, créé par l'article 1 er du décret n°2016-495 du 21 avril 2016 relatif au contenu du compte rendu annuel de concession transmis par les organismes de distribution de gaz naturel aux autorités concédantes, publié au JORF n°0096 du 23 Conformément au C de l'article 32 du modèle de cahier des charges de concession pour le service public de la distribution d'énergie électrique, « le concessionnaire présentera pour chaque année civile à l'autorité concédante, dans le délai de six mois qui suit l'exercice considéré, un compte-rendu d'activité faisant apparaître les indications suivantes : » les extensions, renforcements, branchements et renouvellements effectués ainsi qu'une synthèse des conditions économiques de leur réalisation ; l'état des quantités d'électricité et des recettes correspondantes ; des indications sur la qualité du service ; l'état des consommations d'électricité et des recettes correspondantes ; des informations sur le degré de satisfaction des usagers ; une annexe évaluant les provisions pour le renouvellement des ouvrages 106 la distribution publique de gaz naturel 439 prévoient l'obligation pour le concessionnaire de présenter annuellement à l'autorité concédante un « compte-rendu d'activité ». Ces dispositions ont été interprétées à la lumière de l'article L. 2224-31 du CGCT par la Cour administrative d'appel de Paris dans un arrêt du 25 mars 2013 aux termes duquel le concessionnaire est tenu de communiquer aux autorités concédantes « un compte-rendu d'activité annuel comprenant tous les éléments comptables et financiers se rapportant à la concession permettant à celle-ci d'exercer utilement son contrôle sur l'exécution de la convention par le concessionnaire » 440. En l'espèce, les éléments présentés par ERDF ne permettaient pas à l'autorité concédante de connaître la situation économique réelle de la concession et ne constituaient donc pas « des données comptables et financières significatives au sens des stipulations du C de l'article 32 du cahier des charges ». Or, le concessionnaire ne contestait pas sa capacité à produire les données à la maille de la 441 et n'établissait pas, non plus, une éventuelle atteinte aux règles de concurrence libre et loyale qui justifierait une rétention d'information. Enfin, la circonstance que le syndicat souhaitait obtenir les données dans le seul but d'attribuer, à l'avenir, la concession à un autre opérateur était sans incidence sur le respect des obligations contractuelles d'ERDF. Dès lors, l'autorité concédante pouvait solliciter de son concessionnaire la communication des informations litigieuses, notamment le compte de résultat « détaillé à la maille de la concession ». Ont donc été jugées légales, les pénalités émises par le syndicat d'énergie en vue de sanctionner le caractère incomplet des informations transmises. . 107 confirmé le pouvoir de contrôle des autorités concédantes en étendant le devoir d'information à la société EDF, en tant qu'opérateur historique de la fourniture d'électricité aux tarifs réglementés de vente. Alors qu'elle n'est pas tenue « au même devoir d'information qu'ERDF », la société EDF reste chargée de produire des données « à la maille de la concession »442. En effet, si les dispositions de l'article L. 2224-31 du CGCT relatives à l'obligation d'information ne s'appliquent qu'aux organismes « de distribution d'électricité et de gaz », en revanche, celles relatives au « contrôle du bon accomplissement des missions de service public fixées () par les cahiers des charges » peuvent renvoyer tant au service public de la distribution d'énergie qu'au service public de la fourniture d'électricité et de gaz aux tarifs réglementés de vente. Dans ce cadre, la société EDF est tenue à un devoir d'information, sans qu'il soit possible d'opposer aux autorités concédantes « une lecture des stipulations contractuelles limitée au service public de la distribution »443. 246. Une consécration législative par la loi du 17 août 2015. La loi du 7 décembre 2010 dite « NOME » semblait consolider le devoir d'information du concessionnaire, à travers l'obligation pour les organismes de distribution d'électricité et de gaz de communiquer aux autorités concédantes un « compte rendu de la politique d'investissement et de développement des réseaux prévue au 1° du II de l'article 13 de la loi du 9 août 2004444 » 445. Néanmoins, c'est la loi sur la transition énergétique qui devrait permettre de renforcer efficacement l'information des autorités concédantes et donc, leur pouvoir de contrôle. La loi du 17 août 2015 a effectivement consacré et codifié l'obligation pour chaque organisme de de transmettre aux autorités concédantes, à une échelle permettant le contrôle des réseaux publics de distribution, Cour administrative d'appel de Nancy, 12 mai 2014, Mietkiewicz et a. c/ Communauté urbaine du Grand Nancy, n°13NC01303, considérant 16. 443 J.-S. BODA, C. FONTAINE, « La Cour administrative d'appel de Nancy et le régime juridique des concessions de distribution publique d'électricité », JCP A, n°50, 15 décembre 2014, 2346. 444 L'article 23 de la loi n°2006-1537 du 7 décembre 2006, préc., a modifié les dispositions de l'article 13 de la loi n°2004-803 du 9 août 2004, préc., aux termes desquelles « II. - Sans préjudice des dispositions du sixième alinéa du I de l'article L. 2224-31 du code général des collectivités territoriales et de l'article 23-1 de la loi n°2000-108 du 10 février 2000 précitée, un gestionnaire de réseau de distribution d'électricité ou de gaz naturel est notamment chargé, dans le cadre des cahiers des charges de concession et des règlements de service des régies mentionnés au I du même article L. 2224-31 : 1° De définir et de mettre en oeuvre les politiques d'investissement et de développement des réseaux de distribution ». Désormais, les articles L. 322-8 et L. 4328 du code de l'énergie chargent respectivement le gestionnaire de réseau de distribution d'électricité dans sa zone de desserte exclusive et le gestionnaire de réseau de distribution de gaz naturel « de définir et de mettre en oeuvre les politiques d'investissement et de développement des réseaux de distribution », et ce, « afin de permettre le raccordement des installations des consommateurs et des producteurs ainsi que l'interconnexion avec d'autres réseaux » en matière d'électricité ou « dans le respect de l'environnement et de l'efficacité énergétique » en matière de gaz. 445 Article 21 de la loi n°2010-1488 du 7 décembre 2010 portant nouvelle organisation du marché de l'électricité, publiée au JORF n°0284 du 8 décembre 2010 p. 21467. 442 108 les informations utiles « sous la forme d'un compte-rendu annuel » 446. Ce compte-rendu doit comporter, notamment, la valeur brute ainsi que la valeur nette comptables, la valeur de remplacement des ouvrages concédés pour la distribution d'électricité et la valeur nette réévaluée des ouvrages pour la distribution de gaz naturel. 247. Conformément à ces nouvelles dispositions, deux décrets du 21 avril 2016 sont venus préciser le contenu du compte-rendu annuel d'activité des concessions d'électricité (CRAC)447 et du compte-rendu annuel de concession transmis par les organismes de de gaz naturel aux autorités concédantes448. Concernant l'électricité, il est désormais prévu que le CRAC soit remis à l'autorité concédante, au plus tard le 1er juin de chaque année, par « les organismes de distribution d'électricité », mais également par « les fournisseurs d'électricité aux tarifs réglementés » 449 que sont EDF et les entreprises locales de distribution (ELD) chargées de la fourniture, dans leur zone de desserte. Les dispositions propres aux CRAC établis par les sociétés Enedis et EDF sont particulièrement exigeantes en ce qu'elles imposent un contenu détaillé qui comprend nécessairement « une analyse de la qualité du service rendu aux usagers », « les informations relatives à la politique d'investissement et de maintenance des réseaux », « les éléments financiers liés à l'exploitation de la concession », « la consistance du patrimoine concédé », ainsi que « les évolutions juridiques, économiques, techniques ou commerciales notables »450. Concernant le gaz, le compte-rendu annuel transmis par les organismes de distribution de gaz naturel autres que les distributeurs agréés comprend « une analyse de la qualité de service rendu par l'organisme de distribution », « une description des réseaux publics de distribution de gaz concédés » qui comporte notamment « un inventaire des ouvrages » et « un compte rendu de la politique d'investissement et de développement des réseaux », ainsi que « le compte d'exploitation de la concession, présentant la contribution du contrat () à la péréquation du tarif d'utilisation des réseaux publics de distribution de gaz naturel dans la zone de desserte exclusive concernée »451. 248. Il est à noter que les informations transmises aux autorités concédantes doivent également contenir les données permettant d'élaborer et d'évaluer les schémas régionaux du climat, de l'air et de l'énergie (SRCAE) et les plans climat-airArticle L. 2224-31-I alinéa 3 du CGCT, tel que modifié par l'article 153 de la loi n°2015-992 du 17 août 2015, préc. 447 Décret n°2016-496 du 21 avril 2016 relatif au compte rendu annuel d'activité des concessions d'électricité, prévu à l'article L. 2224-31 du code général des collectivités territoriales, publié au JORF n°0096 du 23 avril 2016. 448 Décret n°2016-495 du 21 avril 2016, préc. 449 Article D 2224-34 du CGCT, créé par l'article 1 er du décret n°2016-496, préc. 450 Article D. 2224-37 du CGCT, créé par l'article 1 er du décret n°2016-496, préc. 451 Article D. 2224-48 du CGCT, créé par l'article 1 er du décret n°2016-495, préc. 446 109 énergie territoriaux (PCAET) ainsi qu'un bilan détaillé de la contribution du concessionnaire aux plans qui le concernent452. 249. En consacrant, au profit des autorités concédantes, un droit à l'information utile, le législateur et le juge administratif ont donc instauré « une nouvelle dynamique au pouvoir de contrôle » 453, les autorités concédantes étant désormais en mesure d'exiger de leur concessionnaire toutes les informations nécessaires à l'exercice de ce pouvoir. 250. Pour autant, la pratique n'est pas aussi optimiste, notamment sous l'effet de la jurisprudence administrative récente et en raison des difficultés matérielles auxquelles se heurte le concessionnaire dans la mise en oeuvre de son devoir d'information (B).
B) La remise en cause de l'obligation d'information
251. Tant les décisions rendues récemment par le juge administratif (1) que le caractère parcellaire des informations transmises en pratique par le concessionnaire semblent avoir réduit l'effectivité du devoir d'information, au point d'affaiblir le pouvoir de contrôle des autorités concédantes (2). 1 – Par la jurisprudence administrative 252. Lorsqu'elles n'obtiennent pas les informations sollicitées, les autorités concédantes n'appliquent pas pour autant les stipulations contractuelles destinées à sanctionner l'absence de production des documents, d'où la nécessité d'« attirer l'attention des élus locaux sur leurs prérogatives dans le cadre de leur pouvoir concédant et de contrôle des réseaux publics » 454. Même lorsque les autorités concédantes décident d'appliquer les sanctions prévues au contrat, les juridictions administratives optent pour une lecture stricte des stipulations contractuelles afin d'éviter de sanctionner le concessionnaire qui aurait manqué à son obligation d'information (a). Par ailleurs, en permettant expressément au concessionnaire d'affecter des biens à l'exploitation de Article L. 2224-31-I alinéa 3 tel que modifié par l'article 75 de la loi n°2010-788 du 12
juillet 2010 portant engagement national pour l'environnement, publiée au JORF n°0160 du 13 juillet 2010 p. 12905. 453 J.-S. BODA, C.
FONTAINE, art. cit
. 454 Rapport d'information n°623 fait au nom de la Délégation aux collectivités territoriales et à la décentralisation sur les collectivités territoriales, sur : « mobiliser les sources d'énergies locales », présenté par Cl. BELOT, enregistré à la présidence du Sénat le 4 juin 2013. 452 110 plusieurs concessions, la décision « Commune de Douai » du 11 mai 2016 risque également de réduire le pouvoir de contrôle des autorités concédantes (b). a – L'interprétation stricte des stipulations contractuelles 253. Lorsque le gestionnaire de réseaux ne transmet pas les informations sollicitées, les autorités concédantes peuvent mettre en oeuvre les pénalités contractuelles. Or, le juge administratif a déjà invalidé les pénalités émises par une autorité concédante à l'encontre de son concessionnaire pour avoir refusé de transmettre les informations sollicitées, complexifiant ainsi l'exercice du pouvoir de contrôle455. Dans un arrêt du 5 décembre 2014, la Cour administrative d'appel de Nantes a effectivement annulé un jugement par lequel le Tribunal administratif d'Orléans avait admis les pénalités émises par le Syndicat intercommunal d'énergie d'Indre et Loire (SIEIL) à l'encontre d'ERDF, pour non production de documents456. 254. En l'espèce, à la suite d'un incident électrique, le président du syndicat avait demandé au concessionnaire de lui communiquer toutes les fiches d'incident et les comptes-rendus d'intervention des services techniques sur la zone accidentée depuis dix ans. La société ERDF n'ayant pas fait droit à cette demande, l'agent du contrôle communal des distributions d'énergie l'a mise en demeure de fournir ces documents, dans un délai de deux mois, sous peine de dresser un procès verbal de constat d'entrave à l'exercice du contrôle. Après l'élaboration dudit procès verbal, l'entreprise concessionnaire a maintenu l'impossibilité de transmettre ces documents sous forme papier, tout en acceptant de communiquer au syndicat les informations relatives aux incidents qui avaient fait l'objet d'un traitement informatique 457. Le SIEIL a quand même émis trois titres exécutoires afin de mettre à la charge d'ERDF les pénalités de retard prévues au D de l'article 32 du cahier des charges relatif au contrôle et au compte-rendu annuel. Après l'annulation des titres exécutoires par le Tribunal administratif d'Orléans, un nouveau titre de recettes avait été émis le 4 octobre 2012 avant d' confirmé par le tribunal. 255. En revanche, selon la Cour, la demande, présentée par le président du syndicat et réitérée par un agent de contrôle, ne pouvait être regardée comme relevant de l'article 32 du cahier des charges qui porte exclusivement sur les compétences des agents de contrôle, la fourniture des plans du réseau et la Cour administrative d'appel de Nantes, 5 décembre 2014, Société ERDF, n°13NT01974. Tribunal administratif d'Orléans, 18 avril 2013, ERDF, n°1204013. 457 Incidents ayant eu lieu sur le périmètre de la concession depuis l'exercice 2003. 455 456 111 communication du compte-rendu annuel d'activité. Le régime de pénalités prévu par ces mêmes dispositions ne pouvait donc être mis en oeuvre458. Certes, le syndicat pouvait se prévaloir de l'article L. 2224-31 du CGCT qui permet aux autorités concédantes de disposer des informations d'ordre économique, commercial, industriel, financier ou technique, utiles à l'exercice de leurs compétences. Néanmoins, dans la mesure où le législateur n'a assorti d'aucune sanction le nonrespect de cette obligation, le syndicat ne pouvait, selon la Cour, émettre des pénalités. 256. Un tel raisonnement est particulièrement regrettable puisqu'en refusant la possibilité pour une autorité concédante d'émettre des pénalités à l'encontre du concessionnaire ERDF, au motif que la demande d'information ne relevait pas de l'article 32 du cahier des charges, le juge administratif a effectué une interprétation stricte des stipulations contractuelles, au point de priver d'effectivité le pouvoir de sanction 459. Pourtant, dans la mesure où la transparence et l'exhaustivité des informations sont des conditions essentielles à l'exercice satisfaisant, par l'autorité concédante, de sa mission de contrôle, le caractère lacunaire des informations transmises à l'autorité concédante devrait au contraire justifier que cette dernière utilise ce pouvoir de sanction. Or, en privant de sanction le non-respect du devoir d'information, le juge administratif n'incite pas le gestionnaire de réseaux à mettre en oeuvre son obligation. La limitation des moyens de contrainte dont disposent les autorités concédantes pour faire respecter leur droit à l'information conduit donc à affaiblir le dispositif de contrôle lui-même. De tels effets vont à l'encontre du mouvement jurisprudentiel tendant à l'affermissement du pouvoir de contrôle des autorités concédantes, ce qui s'avère particulièrement problématique, notamment lorsque l'autorité concédante sollicite des documents en vue d'éviter de futurs incidents, c'était le cas dans l'affaire opposant le SIEIL à ERDF. 257. La loi du 17 août 2015 n'ayant pas prévu de mécanisme de sanction, il serait judicieux que le juge administratif opte pour une lecture fonctionnelle du contrat en interprétant l'article 32 du cahier des charges à l'aune de l'article L. 2224-31 du CGCT « que cette demande () ne s'inscrit pas dans le cadre du contrôle et du compte rendu annuel sur lequel porte exclusivement l'article 32 du Cahier des charges mais vise à obtenir de la société ERDF, dans le cadre d'une enquête diligentée à la suite d'un accident, la délivrance de copies de documents qu'elle détient ; que, dans ces conditions, elle ne peut être regardée comme relevant des stipulations précitées du point A de l'article 32 du Cahier des charges ; qu'il suit de là que le régime de pénalités prévu par le point D du même article, qui est d'interprétation stricte, ne pouvait être mis en oeuvre pour sanctionner le retard avec lequel les fiches d'incident et les comptes rendus d'intervention ont été communiqués ». 459 Voir en ce sens : J.-S. BODA, « La cour administrative d'appel de Nantes et le pouvoir de contrôle des autorités concédantes de la distribution publique d'électricité », Énergie Environnement Infrastructures, n°3, mars 2015, comm. 23. 458 112 qui permet aux autorités concédantes d'obtenir la communication des informations utiles à l'exercice de leur mission de contrôle. Le non-respect de l'obligation de communication prévue par la loi pourrait alors conduire à la mise en oeuvre des pénalités prévues au contrat. 258. Dans l'affaire opposant le SIEIL à ERDF, la Cour administrative d'appel de Nantes aurait également pu confirmer le raisonnement opéré par le tribunal administratif d'Orléans selon lequel des pénalités pouvaient être émises sur le fondement de l'article 32 D du cahier des charges en ce que la demande du syndicat portait sur des documents techniques relatifs aux incidents sur le réseau et relevait ainsi du contrôle ponctuel prévu à l'article 32 A du contrat. Une telle interprétation aurait permis d'assurer l'effectivité du pouvoir de contrôle, au profit d'une plus grande sécurité du réseau. 259. À défaut d'une telle interprétation jurisprudentielle, il appartient au législateur de compléter l'article L. 2224-31 du CGCT pour assortir le devoir d'information d'un mécanisme de sanction. b - La faculté pour le concessionnaire d'affecter un bien à l'exploitation de plusieurs concessions. 260. Certes, la décision du 11 mai 2016 « Commune de Douai » s'inscrit, à première vue, dans le mouvement général tendant au renforcement du pouvoir de contrôle des autorités concédantes. risque d'accroître le nombre d'inventaires incomplets. Il est, par définition, difficile de localiser un bien dont l'affectation géographique n'est pas établie. Or, la présence de nombreux biens non localisés constitue déjà « une faiblesse des inventaires »462 en ce qu'elle place l'autorité concédante dans « l'impossibilité d'exercer un contrôle précis » du patrimoine de la concession463. C'est d'ailleurs la raison pour laquelle le droit de bénéficier d'une information précise du patrimoine de la concession a pu être qualifié par la doctrine de « capital » dans le secteur de la distribution d'électricité et de gaz, secteur caractérisé par la faculté pour les opérateurs « d'user de biens affectés à plusieurs concessions sans forcément établir l'affectation géographique de ces biens »464. Dès lors, en empêchant les autorités concédantes de bénéficier d'une bonne connaissance du patrimoine de leur concession, la décision du Conseil d'État risque de s'éloigner de l'objectif escompté, au point de nuire à l'exercice de leur contrôle sur le service public concédé. 2 – Par le concessionnaire 262. En 2012, le rapport d'observations sur la gestion du Syndicat intercommunal de la périphérie de Paris pour les énergies et les réseaux de communication (SIPPEREC) faisait remarquer les « efforts réels effectués par ERDF pour améliorer la qualité des CRAC »465. Ces efforts ont d'ailleurs été poursuivis en 2013 par la signature d'un protocole d'accord entre la Fédération nationale des collectivités concédantes et régies (FNCCR) et ERDF par lequel cette entreprise s'est engagée à favoriser la transparence des informations, à travers une plus grande précision des données patrimoniales, comptables et financières qu'elle transmet aux autorités organisatrices de la distribution d'électri 466. Malgré ces efforts, les informations transmises aux autorités concédantes sont parfois incomplètes (a), eu égard, selon le concessionnaire, aux difficultés matérielles auxquelles il doit faire face (b). J.-S. BODA, « La consécration de la spécificité du régime juridique des biens affectés aux concessions de distribution d'électricité », Énergie Environnement Infrastructures, n°7, juillet 2016. 463 Chambre régionale des comptes d'Île-de-France, Rapport d'observations définitives, ville de Paris, « Délégation du service public de distribution de l'énergie électrique dans Paris », Exercices 2003 et suivants, 2010, p. 17. 464 J.-S. BODA, C. FONTAINE, art. cit. 465 CRC d'Île-de-France, Rapport d'observations définitives, Syndicat intercommunal de la périphérie de Paris pour l'électricité et les réseaux de communication, Exercices 2006 et suivants, 2012, p. 26. 466 Protocole d'accord conclu le 18 septembre 2013 entre ERDF et la FNCCR, préc., p. 12 : « la FNCRR et ERDF conviennent de la nécessité de poursuivre dans les prochaines années la démarche d'amélioration continue de la précision des données financières et patrimoniales de la concession transmises par le concessionnaire à l'autorité organisatrice ». Voir également : J-B. VILA, « Du renouveau des rapports entre ERDF et les collectivités territoriales en matière de concessions d'énergie », JCP A, n°28, 15 juillet 2014, 2217. 462 114 a – Des informations parfois incomplètes 263. Non seulement les autorités
concédantes sont fondées à exiger de leur concessionnaire la communication des informations mentionnées à l'article L. 222431 du CGCT et au cahier des charges de la concession
mais, en plus
, ces informations doivent être précises
ou,
à
tout le moins, «
exploitables » par les autorités concédantes en vue de l'exercice de leur mission de contrôle467. Or, tant les inventaires – du moins ceux transmis par le concessionnaire avant 2015 – que les éléments financiers et patrimoniaux des s-rendus annuels d'activité contiennent parfois des informations parcellaires.
264. Inventaire des biens.
Les autorités concédantes qui souhaitaient obtenir un inventaire exhaustif des biens de la concession se voyaient souvent opposer, au pire, un refus de la part de leur concessionnaire468 ou, au mieux, un document incomplet ne répertoriant qu'une partie des biens de la concession. D'un côté, les syndicats d'énergie, qui souhaitaient introduire des obligations de tenue et de mise à jour d'un inventaire par le concessionnaire, se heurtaient généralement au refus de ce dernier 469. De l'autre, les autorités concédantes ne disposaient souvent que d'un inventaire des biens localisés470, excluant ainsi tout suivi détaillé et individualisé des ouvrages dits « non localisables »471.
| 11,368
|
39/dumas.ccsd.cnrs.fr-dumas-03150785-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 8,956
| 14,297
|
De la fleur des langues à l'autoportrait : questionner la conscience du plurilinguisme dans une classe de CE1. Présenté par Aude de la Perrelle
Mé
moire
de M2
encadré par
Jean
-
Henry Caul-Futy « En reconna
issant
et valorisant les langues et
culture
s habituellement dépréciées de certain
s élèves, l'école peut
espérer aussi leur donner confiance en elle, et confi
ance
en eux. » (Candelier,
2001
,
in
Troncy & al
:
149
). 1 Durant l'année scolaire 2016-2017, j'ai été professeure des écoles à mi-temps dans une classe de CE1 de l'école primaire Vaugelas à Annecy. Dans cet établissement aux élèves socialement et culturellement très divers, ma classe accueillait de 21 à 26 élèves de 7 ans avec lesquels j'ai décidé de mettre en place des séances d'Eveil aux langues. En effet, dans le cadre de notre société contemporaine et de notre métier, il me semble que cette approche plurielle crée un environnement adapté à l'Education Civique et Morale telle que définie dans les programmes de 2016. Les objectifs de cette discipline ne peuvent nier l'existence de l'individu sans risque de demeurer en décalage avec la réalité de terrain (CNESCO 2015). Selon moi, le professeur doit donc mettre en place un enseignement inductif qui permet de concilier l'appartenance citoyenne et les affiliations "autres" de chaque élève. En appréhendant le thème de l'identité avec mes élèves, j'ai ainsi choisi de m'inscrire dans un double questionnement : celui de l'égalité entre citoyens et celui de la reconnaissance des droits des cultures dans les institutions politiques. Dans cette double dialectique, les pratiques de l'enseignant relèvent du bricolage, soit une adaptation intelligente aux situations complexes. Après avoir exposé le thème de l'identité au sein de l'école française puis décrit la construction de l'Eveil aux langues, je présenterai les étapes de ma recherche. Je décrirai l'évolution de mon questionnement professionnel à partir de la mise en place du dispositif de « La Fleur des Langues ». C'est un outil pédagogique qui permet de recueillir une biographie langagière auprès d'élèves dont certains entrent doucement dans le monde de 'écrit. Ainsi, « cette mise en mots de fragments d'identité plurilingue, singulière et inachevée développe chez l'enfant la conscience d'être un sujet en devenir par les langues » (Molinié, 2014). Je l'ai ensuite complété par 'une carte d'identité' pour mener l'enfant vers une prise de conscience de son identité plurielle. A l'heure actuelle, dans une classe ordinaire urbaine, cette identité plurielle est devenue une revendication ordinaire. De plus, comme le dit Van de Winkel : « La question de l'Autre ne se résume donc plus à celui qui est au-delà d'un territoire géographique mais se complexifie par l'existence d'une multitude d'Autres existants sur un même territoire virtuel ou réel ». En ce sens, l'identité devient un objet d'apprentissage nécessaire à la formation du citoyen contemporain. 2 1. Petite histoire des débats citoyens autour des cultures 4 2. La réflexion scientifique sur le plurilinguisme 7 2.1. Le plurilinguisme contemporain 7 2.1.1. La construction de sa définition comme objet d'étude 7 2.1.2. Le choix de l'approche linguistique pour questionner l'identité 8 2.1.3. La question de la vulnérabilité transculturelle 10 2.2. Le rôle de l'école 13 2.3. Des apprentissages scolaires aux enjeux identitaires et sociaux 17 3. Le dispositif choisi : de la fleur des langues à l'autoportrait. 19 3.1. Son inscription dans les programmes de 2016 19 3.2. Le cadre de l'étude 20 3.2.1. La classe 20 3.2.2. Les objectifs 20 3.2.3. Le choix d'une approche plurielle 22 3.3. Le déroulement de l'étude 22 3.3.1. Le recueil de données : la fleur des langues. 25 3.3.2. Le support de questionnement : le cartouche individualisé 29 3.4. Les résultats de l'étude 30 3.4.1. Les aménagements de la séquence 30 3.4.2. Les données linguistiques issues de la réalisation des autoportraits 31 3.4.3. Les représentations culturelles de l'identité des élèves 32 3.5. Quels sont les apports de cette séquence pour ma classe? 34 3.5.1. Le pluriculturalisme en CE1 34 3.5.2. 34 3.5.3. Annexes 3 1. Petite histoire des débats citoyens autour des cultures
Dans le cadre du débat sur le modèle républicain des années 1990, deux courants de pensées s'opposent. D'une part, les intégrationnistes s'inscrivent dans la tradition française : prendre des gens divers et essayer de les faire vivre ensemble. Dans son 10 ème rapport établi en 1991 et intitulé "Pour un modèle français d'intégration", le Haut Conseil à l'Intégration définit l'"intégration à la française" comme « un processus spécifique par lequel la participation active à la société nationale d'éléments variés et différents est suscitée et cela, tout en acceptant la subsistance de spécificités culturelles, sociales et morales et en tenant pour vrai que l'ensemble s'enrichit de cette complexité et de cette variété. » D'autre part, les multiculturalistes veulent repenser les relations entre identifications particulières et citoyenneté nationale. Aujourd'hui, en Europe, quel que soit le modèle mis en avant, aucun droit collectif n'est accordé à des groupes particuliers. « La démocratie demeure fondée sur l'égalité de chaque citoyen. » (Schnapper, 2015) Comme toute société nationale est multiculturelle, la tension entre fidélités particulières et citoyenneté s'inscrit dans toute démocratie. Pourtant, en France, les valeurs civiques et celles de la citoyenneté qui donnent le cadre du vivre ensemble s'affaiblissent comme l'illustrent violemment les attentats de janvier 2015. Depuis, les débats et les initiatives se multiplient pour promouvoir et défendre les valeurs de la République, dont la laïcité. La figure du citoyen s'affirme comme débat d'actualité et enjeu politique majeur : elle retrouve une dimension idéologique et polémique. Malgré tout, ces réflexions s'accompagnent cessairement de la double question de l'égalité du citoyen et de la reconnaissance des droits des cultures dans les institutions politiques. La citoyenneté Pour Aristote, ce qui caractérise un homme (et non une femme ou un esclave), c'est le fait d'appartenir à la polis, à la cité, d'être un citoyen. De nos jours, cette citoyenneté dispose de trois niveaux : l'égalité des droits et l'absence de discriminations en premier lieu, la capacité de participer aux décisions politiques et à la souveraineté nationale en second lieu et enfin, la citoyenneté sociale de Fichte. (Pennarun, 2008) Dans un pays d'immigration comme la France, il est nécessaire de distinguer nationalité et citoyenneté car si la première résulte du fait familial, la seconde est individuelle. Elle démontre une volonté de s'établir, de trouver des repères, de s'ancrer dans un territoire et de s'y intégrer. En ce sens, il est possible de penser 4 une citoyenneté fondée sur un contrat social auquel les résidents étrangers sont partie prenante (Costa-Lascoux, in Pennarun, 2008). De plus, la citoyenneté n'est pas un acquis mais un apprentissage. En ce sens, il apparaît que l'école publique et laïque en est le lieu privilégié car elle met en oeuvre les conditions du vivre-ensemble. Celui-ci nécessite l'instauration de règles « expliquées, connues et respectées de tous. [Mais, l'école est aussi] un lieu dans lequel sont garantis les droits des enfants et des jeunes et où s'effectue l'apprentissage de la démocratie. » (Conseil National des Droits de l'Homme, 2015). En ce sens, la loi d'orientation scolaire du 10 juillet 1989 a attribué à l'enfant une "citoyenneté scolaire". Dans le cadre actuel, l'enseignement civique et moral a pour objectif de préparer les enfants à être des citoyens dotés d'une réflexion autonome et volontaire. Ainsi, la Commission Nationale Consultative des Droits de l'Homme estime que l'objet de cet enseignement « doit être de faire connaître, comprendre et pratiquer, à tous les élèves, les valeurs (liberté, égalité, fraternité) et principes (indivisibilité, laïcité, démocratie, solidarité) de la République, qui sont la condition de la capacité à vivre ensemble. » Pourtant, un rapport du Conseil National d'Evaluation du Système sCOlaire de 2015 intitulé « Apprentissage de la citoyenneté dans l'école française, un engagement fort dans les instructions officielles, une réalité de terrain en décalage. » dénonce les limites de cette nouvelle discipline dont les enseignements restent déductifs et lointains des apprenants. Ce constat s'inscrit dans le fonctionnement historique de l'Ecole, en tant qu'institution des Etatsnations nés au XIXème siècle. Celle-ci contribue au développement d'une identité nationale grâce à « l'intégration culturelle et sociale des populations, notamment en imposant une langue de référence unique et standardisée. [] Les « Écoles d'État » [sont chargées] d'une double mission : d'une part, intégrer et homogénéiser dans une culture commune les populations métissées et changeantes qui habitaient les territoires nationaux. Et, d'autre part, accentuer la différenciation culturelle et identitaire d'une nation donnée par rapport aux sociétés nationales « étrangères ». » (Hutmacher ; 284-285, in Meirieu, 2000) Avec cette approche, l'école française se présente comme un lieu et un instrument d'intégration. Elle place ainsi l'individu face à un questionnement identitaire : comment concilier son appartenance citoyenne et ses affiliations 'autres' (familiales, religieuses, culturelles). Le lien entre la langue, l'Etat et la nation débute avec l'ordonnance de Villers-Cotterets qui en 1539 impose comme langue officielle du droit et de l'administration le français. Puis, la fondation de l'Académie en 1634 promeut le français des classes dominantes comme de bon usage. Enfin, le rapport présenté à la Convention Nationale en 1794 stipule : 'On peut 5 uniformiser le langage d'une grande nation'. Dès lors, ce sont les caractéristiques communes qui permettent aux citoyens de s'identifier comme membres d'une même nation. Parallèlement, un autre courant issu de la philosophie des Lumières promeut la volonté du vivre ensemble. (Noiriel, 1992, in Pennarun 2008). En novembre 2009, le gouvernement français exprime la volonté d'entamer un débat avec les citoyens sur le thème de l'identité nationale. Dès décembre 2009, un journaliste du Monde déclare que "la discussion a été engagée sur une base dangereuse et condamnable en associant identité nationale et immigration. " L'étude menée à ce sujet par Jeannot, Tomc et Totozani en 2010 démontre que la langue est un marqueur déterminant de l'identité française. Elle a une importance comme langue officielle, dotée d'un code normé par l'orthographe. Pourtant, se dessine en filigrane l'existence d'une identité multiple et évolutive car on y retrouve l'évocation de la diversité de ses usages et de la cohabitation de langues régionales. Ainsi peut naître la notion d'"identité plurielle, composée elle-même de connaissances langagières plurielles et non figées." Néanmoins, cette représentation minoritaire ne peut pas éta une véritable conscience du plurilinguisme. (Jeannot & al, 2011) Comme elle est décrite précédemment, l'école prépare l'individu à vivre en société, en visant une culture commune, partagée et partageable, qui permettent aux élèves de devenir des pairs. Il existe également un autre objectif, celui de construire des êtres de même dignité, capables de penser par eux-mêmes. De plus, l'école s'avère être le lieu où l'élève combine de manière nouvelle les éléments de sa construction identitaire, notamment par confrontation aux autres. Poser la question de la construction identitaire à l'école implique de questionner les fins de l'instruction que Demougin et Sauvage (2010 ; 3) définissent ainsi : « former l'élève pour produire une attention sociale, construire un sujet pensant et agissant, construire un élève rompu aux codes didactiques, construire un être de parole existant dans l'interlocution. 6 2. La réflexion scientifique sur le plurilinguisme 2.1. Le plurilinguisme contemporain 2.1.1. La construction de sa définition comme objet d'étude
Le plurilinguisme se définit comme la reconnaissance de la diversité linguistique, fait précieux et banal dans notre société globalisée. En effet, dans le contexte mondial actuel, il n'est plus possible de « réduire les langues à l'école à une nécessité socioéconomique, à un exercice intellectuel ou à un exercice d'intégration ». (J. Aden et F. Leclaire ; 141, in Troncy & al, 2014) Choisir le paradigme plurilingue s'inscrit dans une volonté d'inclusion car l'accueil et la reconnaissance de toutes les langues et de toutes les cultures, soit maternelles, soit secondes y sont assurées. En France, le centre de didactique des langues au sein du laboratoire du Lidilem à Grenoble considère la question du plurilinguisme dès les années 1980. A cette époque, cette approche va à l'encontre de la notion de'semi-linguisme' de Skutnab-Kangas qui comprend le bilinguisme comme un état du 'nini'. En ce sens, le plurilinguisme n'existe que si la maîtrise des langues est parfaite. Ce courant considère que le bilinguisme non abouti est source de handicaps linguistiques et sociaux. Comme le bilinguisme idéal est impossible, seul un idéal monolingue est envisageable. Adoptant cette perspective, la France a mis en oeuvre un politique d'assimilation linguistique. Contre ce postulat, le Lidilem conçoit comme une nécessité de reconnaître le statut social de la langue quel que soit son degré de valorisation dans la société. (Billiez, 2011). A l'échelle de l'individu, l'usage des langues s'effectue selon des modes diversifiés en fonction des besoins communicatifs ou discursifs, eux-mêmes variables. Le plurilinguisme se définit come le répertoire individuel non statique des langues, activées ou non en fonction des moments. C'est un répertoire pluriel et malléable, 'latent' ou 'dormant' (Cavalli, 2005 in Billiez, 2011). Des alternances codiques s'observent également par incrustation d'une langue dans l'autre. On est alors en présence de 'parler bilingue'. Ces situations de jonglage entre les ressources langagières sont créatrices de langue et de sens. Ainsi, dans nos sociétés plurielles et complexes, l'éducation langagière et sociale des enfants questionne non seulement la sociolinguistique et la didactique mais aussi les psychologies transculturelles. Grâce à sa capacité d'identifier le caractère changeant des usages linguistiques selon les situations, l'apprenant plurilingue dispose d'atouts cognitifs, culturels et affectifs. Pourtant, il existe un grand paradoxe entre l'investissement de ces élèves qui devraient les conduire à des 7 parcours de réussite et l'observation d'une population d'élèves aux plus grands risques de difficulté scolaire, d'échec et d'orientation vers des filières peu prestigieuses. A cela s'ajoute une vulnérabilité spécifique liée au risque transculturel car la construction identitaire de ces élèves est mise à mal et leur estime de soi, d'autant blessée. Nous avons donc choisi de nous intéresser à la question de la valorisation des langues en contexte scolaire. Comment celles-ci favorisent-t-elles la construction identitaire de l'élève, être "même" et "unique"?
2.1.2. Le choix de l'approche linguistique pour questionner l'identité
L'identité se définit comme le « principe selon lequel une chose ne peut être elle-même et son contraire » (CNRTL, 2012). Pourtant, Drouin-Hans (2006) nous précise que l'identité définit la stabilité l'être et se nourrit de flux continus d'informations, extérieurs à l'individu. L'altérité, ce qui est autre, se conçoit à deux niveaux, étranger à soi-même et étranger aux autres. Elle s'apparente d'une part, à un système de différences - ce qui dans un premier temps, est incompréhensible par manque de connexions entre soi et l'autre - et d'autre part, à un schéma d'interprétation - ce qui se déploie dans un ailleurs (autres espaces/ temporalités/ mondes). Face à l'altérité, l'identité en présence vacille et se recompose par ajustement. Cette expérience apparaît simultanément comme destructrice et structurante car elle éloigne de la solitude et de l'étrangeté à soi-même. Avec l'essor de la psych analyse la temporalité de l'enfance se modifie : l'enfant demeure présent dans l'adulte. Dès les premières années, la constitution du Moi correspond à un mécanisme pris dans « le schéma de l'altérité », conféré par une identification spectaculaire et par les mots de l'adulte. Comme le décrit le'modèle écologique' de Bronfenbrenner (1980), l'enfant se développe au sein d'un emboîtement de systèmes en interaction, des microsystèmes (famille, école, grands-parents, clubs) au macrosystème de la société dans laquelle il vit. (Crahay, 1999) C'est pourquoi, Lévinas préconise de « Penser soi-même comme un autre ». Cette position d'accommodement perpétuel permet de conserver l'attitude de l'explorateur et ainsi, de renoncer à toute colonisation ou conquête. Par ce processus de décentrement, défini par Laplantine comme « le processus par lequel ce qui est étrange et étranger devient familier alors que ce qui est familier devient peu à peu étrange et étranger », l'altérité demeure constamment une notion relative ; elle ne l'est que par rapport à un référent. (Vulbeau, 2006) 8 Dans ce sens, Winnicot souligne l'importance pour l'enfant de son environnement ; il cite la langue et la culture. Celles-ci déterminent les contenus émotionnels et perceptuels de l'enfant. En conséquence, intrinsèquement liés à leurs manifestations corporelles, ces contenus conditionnent la pensée rationnelle. (J. Aden et F. Leclaire, in Troncy & al, 2014) Les langues sont appréhendées dans un paradigme de la structurance : « état dynamique de transformation et de construction de la conscience de soi dans son rapport au monde. » (Aden, 2008). Emergeant du langage sensori-moteur, elles sont des moyens de se relier au monde. Bien que les langues ne résument pas l'identité, elles s'inscrivent donc dans un processus de construction de l'individu. Elles en constituent les matrices et facilitent le développement de la conscience réflexive. Ainsi, elles rendent possible l'émergence de la pensée et le partage des affects toutes en étant les médiatrices de l'action et de la relation humaine. De plus, l'identité d'un individu est d'autant plus forte qu'elle est le reflet de la réalité affective et collective de celui-ci. C'est pourquoi la transmission d'une langue pour des parents est un choix déterminant l'identification du sujet et de ses besoins de communication. En effet, l'apprentissage d'une langue est une reconstruction permanente de la réalité du monde qui ne peut se faire que dans l'intersubjectivité expériment . L'accès à sa connaissance vient du couplage « action/ perception » qui, lié à l'affect, va peu à peu faire émerger le verbal. Le développement du langage est donc indissociable du développement physiologique et de la relation affective. C'est pourquoi Bottineau (2011, in Troncy & al, 2014) considèrent les langues en tant que « systèmes autopoïétiques autonomes qui ne cessent de se transformer au contact les unes des autres et des systèmes incorporés. » Passant par ce langage, l'autonomisation de l'individu est concomitante à sa capacité d'entrer dans les apprentissages et dans l'aire de la symbolisation. Cette étape s'incarne souvent par l'entrée à l'école qui joue un rôle dans l'individuation de l'enfant. Les langues font donc l'objet d'un double enjeu de transmission parentale et collective. Cette réalité linguistique complexe questionne les relations entre la (les) langue(s) parentale(s) et celle(s) collective(s), dans les espaces fréquentés par l'enfant. Ces espaces doivent avoir des frontières poreuses qui offrent une cohérence linguistique. Il s'avère primordial de faire vivre la langue de première socialisation et ainsi de s'appuyer sur le socle du développement langagier et identitaire de l'enfant car refuser une langue entraîne des doutes identitaires qui peuvent être source de violence. (Moro, 2013) 9
2.1.3. La question de la vulnérabilité transculturelle
La notion de vulnérabilité transculturelle naît des courants de pensée de l'ethnopsychiatrie (Devereux) et du culturalisme (Mead) à la fin des années 1960. Dans toutes les sociétés traditionnelles, il y a intrication entre le corps et l'esprit, la psyché. L'impact de la culture a donc des répercussions cliniques. Altounian évoque l'effet de « l'effondrement de l'altérité sur la langue et la pensée ». Pour cette auteure, la langue est un « fait social » : « la persécution d'une langue minoritaire par une société se reflètera dans le rapport à la langue majoritaire ». (Rezzoug et Moro, 2011) Nous proposons tout d'abord une définition de l'identité culturelle avant d'expliquer son impact dans le monde scolaire en France, de nos jours. A la question de la synonymie entre identité collective comme collection d'individus et identité culturelle, nous nous appuyons sur la définition de Meyerson en 1908 : « Si la réalité se présente comme l'élaboration de l'esprit humain confronté avec ses caractéristiques propres à un environnement physique et social, ce dernier est, dans ces manifestations culturelles, le résultat d'un processus d'externalisation. processus se définit comme l'ensemble des activités par lesquelles les hommes produisent des oeuvres qui créent et véhiculent l'identité culturelle des groupes tout en assurant leur existence et leur survie cognitive. ». En réponse, les agents sociaux de ces groupes connaissent leur réalité grâce aux représentations collectives. Celles-ci font de l'appartenance au groupe un présupposé fondateur et en définissent les limites. Elles ordonnent ainsi le monde. Dans cette logique, les représentations de l'étranger renvoient avant tout à l'identité du groupe qui les produit. (Zarate, 2010) Ainsi simplificatrice, l'identité culturelle élude les différences internes tout en renforçant celles externes. Là est son succès, là est son danger. Depuis 2008, année européenne du dialogue interculturel, les études européennes associent l'essor des migrations et l'évolution de la composition des écoles. Les élèves ont des parcours de vie plus diversifiés, notamment en termes de parcours migratoires à l'échelle internationale. En conséquence, des difficultés d'intercompréhension entre les élèves ainsi qu'entre les élèves et les professeurs apparaissent. En France, les études posent les paramètres suivants de réflexion. D'une part, les enfants scolarisés issus de l'immigration sont plus nombreux à vivre dans des conditions socioéconomiques précaires. D'autre part, leurs résultats scolaires sont inférieurs à ceux des autres. De plus, les talents de ces enfants sont inutilisés et deviennent des désavantages sociaux, culturels et économiques pour l'ensemble de la société. Ces constats laissent à penser que la volonté de modifier l'autre a conduit à des impasses. Cette situation s'explique car la France valorise la pluralité linguistique à condition que celleci ne remette pas en cause le monolinguisme de l'identité nationale. Les langues en question sont maintenues dans un statut de langues étrangères. Cet espace sociopolitique est marqué par une politique monolingue d'unification linguistique. L'intégration, tout comme la mobilité linguistique, appartient à une logique assimilationniste forte. (ex : Référentiel Français Langue d'Intégration, 2011) (Moro, 2013). Pour Bédard et Maurais (1983), « tout espace assimilationniste est excluant. » A cela s'ajoute une tradition linguistique normative forte. Cette posture nourrit une représentation fictive et idéalisée de la langue française, qui s'apparente alors à un système théorique figé. Toute variation est fautive, à faire disparaître. Ce point de vue produit représentations et des attentes idéalisées, rendant en théorie impossible l'appropriation linguistique. Moro (2011) parle encore de « pluralité linguistique inégalitaire ». Cet état décrit des situations où les langues inégalement reconnues coexistent, se mélangent, se transmettent, dans un espace sociolinguistique institutionnellement institué comme monolingue. Dans cette logique, l'école suppose une transformation des enfants pour s'adapter aux contraintes d'apprentissage. C'est un processus violent de séparation du milieu d'origine. Le français est la langue de scolarisation, vecteur de mobilité sociale ; il s'oppose à la(les) langue(s) du répertoire familial, d'appartenance. Comme le précise Bourdieu (1982), «si les normes partagées entre la famille et l'école fondent le travail d'éducation langagière, celui-ci peut s'accomplir dans une complémentarité de leurs rôles respectifs. ». Pour les enfants dont les langues ont une faible valeur sur le marché linguistique, ce n'est pas le cas. Les risques 11 augmentent car ils se doublent d'un effacement des attaches, des appartenances et de la langue maternelle. Le développement langagier de ces enfants plurilingues est ainsi considéré par les enseignants et parfois, par les élèves eux-mêmes, comme inachevé dans chacune des langues de leur répertoire, voire comme un frein aux apprentissages. En ce sens, l'institution scolaire crée un environnement d'insécurité linguistique. Celui-ci définit les rapports conflictuels entre des langues socialement dotées de statut et de reconnaissance inégalitaires. Ces situations sont diglossiques car elles opposent une langue aux autres ; elles réduisent la pluralité à une dualité entre les langues de la majorité et des minorités. Ainsi, naît l'idée de l'appropriation de la langue socialement légitime, unique cible de réussite et d'intégration dans une « logique de mobilité linguistique radicale » (Veltman, 1997). Soucieux de conformité sociale, certains locuteurs interrompent le processus de transmission des langues dévalorisées. La problématique identitaire provient de l'interprétation de ce modèle de mobilité sociolinguistique univoque qui s'accompagne du renoncement aux langues qui font de soi un autre. Par ailleurs, les critères d'évaluation de cet apprentissage sont fondés sur le refus de toute trace d'étrangeté. « L'interlangue devient un interlecte stigmatisant ». (Prudent, 1981) Apprendre le français devient tout à la fois indispensable et impossible. Cette minorisation sociale de la langue favorise « l'autodénigrement » (Ninyoles, 1969), des « sentiments de honte et de culpabilité à la norme » (Lafont, 1971), « d'insécurité linguistique » (Labov, 1976). Ces enfants plurilingues vivent donc une double peine : rupture familiale et rupture scolaire. Dans ce , la scolarisation entraîne un appauvrissement culturel et une perte d'estime de soi. Il devient alors difficile pour ces élèves d'habiter ce nouveau monde et d'entrer dans les apprentissages. L'école devient un lieu de souffrance et de doute car pour ces élèves, ils perdent leurs rêves et leurs illusions de réussite individuelle et collective. Cette vulnérabilité augmente à la deuxième génération. Dans cette perspective, l'école crée de la ségrégation sociale et culturelle. Comment peut-on se construire avec une image négative de soi, notamment de celle la plus liée à l'affect? La reconnaissance des langues contribue à instaurer un autre rapport à l'institution et à soi. Pour Marie-Rose Moro (2011), « comprendre ceux qui ont traversé plusieurs mondes et ont acquis plusieurs langues est une nécessité. Le rôle de l'école
Réfléchir aux missions du plurilinguisme de l'école questionne le rôle politique de cette institution, rôle appartenant au« domaine de processus de l'accord [qui existe] dans toute société démocratique dont les frontières sont poreuses ». Cette définition d'Habermas éloigne toute nécessité de culturalisme ou de nationalisme pour la construction de la nation. Pourtant, celle-ci s'accompagne d'un sentiment de communauté basé sur une complémentarité psychosocio-politique. S'opposant à cette tendance forte, si le politique se distingue du culturel, sa responsabilité, notamment dans la sphère éducative, se définit par un devoir de protection notamment des minoritaires. Taylor parle d' « institutionnalisation du droit à l'identité culturelle ». Selon ce point de vue, l'Etat possède un devoir d'intervention afin de contrôler les effets sociaux et psychosociaux défavorables issus de la domination des majoritaires. A minima, il garantit la protection de la dignité et du respect de tous les citoyens. En ce sens, l'Etat via ses institutions conçoit le cadre de la relation entre majorité et minorité.
2.2.1. Adopter une démarche plurielle
Dans le contexte d'une société mondialisée, l'école doit préserver et promouvoir la diversité, notamment celle linguistique car tout locuteur y est potentiellement plurilingue (Beacco et 13 Byram 2007). Moro souhaite y « tricoter les identités ensemble grâce à l'éducation au nonracisme, à la présentation de la démocratie en contexte pluraliste et à l'éducation interculturelle ». Cette dernière se pense ici comme « un ensemble cohérent d'actions conduites par des agents scolaires pour corriger l'inégalité symbolique entre les élèves, pour réduire la saillance ethnique dans les établissements et pour faire émerger une culture démocratique. » (Latour) Elle représentent un défi pour la profession d'enseignant. (Moro, 2013) En Europe, les approches plurielles apparaissent comme une nécessité pour tout projet qui s'inscrit dans la perspective de la compétence linguistique et culturelle prônée par le CECR. Le Conseil de l'Europe (2001) définit une approche plurielle ainsi : « une approche plurielle met l'accent sur le fait que, au fur et à mesure que l'expérience langagière d'un individu s'étend, il ne classe pas ses langues et ses cultures dans des compartiments séparés mais construit une compétence communicative à laquelle contribue toute connaissance et toute expérience des langues et dans lesquelles les langues sont en corrélation et interagissent. Les thèmes sont choisis pour mettre en relation et exploiter simultanément cette diversité. Une approche plurielle exploite également le principe d'économie d'apprentissage grâce à une mise en réseau et au transfert des connaissances. Elle s'appuie sur la parenté linguistique et vise à l'exploitation systématique des pré-acquis des apprenants ainsi qu'à leur sensibilisation aux langues (Meissner, 2004). Pour cela, l'enseignant a recours intentionnellement à la mise en place d'échanges de type métalinguistique - sur et à propos de la langue - entre les partenaires de l'activité pédagogique. L'apprenant acquiert donc une conscience de la langue et une capacité à expliciter les faits langagiers. Ces conceptualisations multiples du savoir dans les "classes de situation" (Vergnaud, 1996) naissent de situations co-construites, à la fois homogènes en termes de ressources, de conceptions et de savoirs et hétérogènes quant à leurs agencements conceptuels et aux problèmes proposés. L'enseignant endosse le rôle de garant de la "mémoire didactique partagée" (Brousseau et Centeno, 1991) : il rappelle les pré-acquis, les reconsidère, les modifie constamment selon un schéma spiralaire. En ce sens, grâce à la construction simultanée de répertoires individuel et collectif, les connaissances ainsi acquises forment un "système transitoire et commun de références"" (Brousseau et Centeno, 1991). Ces va-et-vient entre les disciplines et les savoirs langagiers partagés nous semblent pouvoir contribuer à faire de l'approche plurielle des langues et du langage, l'outil d'articulation indispensable au développement de la compétence plurilingue et pluriculturelle des apprenants. Cette double compétence se traduit par la capacité à construire et à élargir un répertoire linguistique et culturel pluriel tout en gérant la communication linguistique et culturelle en contexte d'altérité. Cette compétence est conçue comme « hétéroclite et complexe mais, cohérente et unique ». (Coste, Moore, Zarate, 1997 ; 221, in Troncy, 2014) Parmi les approches plurielles, nous avons choisi de nous intéresser à l'Eveil aux langues, approche adaptée au contexte de l'école.
2.2.2. L'Eveil aux langues 2.2.2.1 Historique
Dès les années 1970, le Groupe Charlirelle, formé de didacticiens en langues étrangères et de psycholinguistes écrivent : « Mais on aura aussi pour but d'apprendre aux enfants à réfléchir, de façon trè s active, dans le plaisir et la détente autant que possible. Réfléchir sur le langue étrangère et sur la langue maternelle, sur l'activité de langage et ce qu'elle signifie au sein de l'activité humaine globale. » Pourtant, il faut attendre une décennie pour voir la naissance de l'Eveil aux Langues à Grenoble et en Suisse Romande. Il s'inspire du concept d' « Awareness of language », d'Eric Hawkins formalisé dans un ouvrage de 1984. (Dompmartin-Normand, 2011) A Grenoble, les recherches suivent deux axes, sous la direction de Louise Dabène : - l'étude des problèmes linguistiques liés à la présence des enfants migrants. Ainsi Louise Dabène met en évidence l'ambiguïté et la fragilité du statut de ces langues, mal insérées institutionnellement et pédagogiquement dans le contexte scolaire. 15 - l'analyse du rôle de la réflexion métalinguistique dans l'enseignement et l'apprentissage des langues étrangères.
Michel Candelier
parle de « propédeutique multilingue
et
multiculturel
». En 1995, dans l'ouvrage Notions en question, du Centre de Recherche et d'Etude pour la Diffusion du Français, Danièle Moore atteste de l'importance de cette démarche en sein de la didactique des langues. Puis, un projet européen de grande envergure mobilise des chercheurs de 1997 à 2003, le projet européen EVLANG qui se conclut par le rapport de Michel Candelier. Parallèlement, les dispositifs accompagnés de leur matériel pédagogique EOLE et ELODIL se diffusent respectivement en Suisse et au Canada. Aujourd'hui, le Conseil de l'Europe propose le Cadre de Référence pour les Approches Plurielles, qui répertorie et met à disposition les outils et supports. (Troncy, 2014)
2.2.2.2 Définition
Appartenant à la famille des approches plurielles, l'Eveil aux langues propose à l'élève de rencontrer une grande diversité de langues, de divers statuts, à propos desquelles il effectue des activités de découverte afin de : - structurer les apprentissages langagiers (construction d'aptitudes et d'attitudes préparant à l'apprentissage ultérieur des langues. - d'accueillir la diversité des langues : langues de l'école et langues utilisées en dehors. Il existe un écart plus ou moins grand entre celles-ci et la langue de scolarisation. Dans un contexte migratoire, l'écart tend à augmenter. - de légitimer les langues minorées. La question linguistique s'éloigne des notions de performance ou de compétence. La maîtrise parfaite de la langue n'est plus l'objectif. L'objet d'étude devient le répertoire pluriel des individus leur dynamisme et leur mouvance, bagage de ressources partielles, plurielles et composites. 'Parler' signifie alors « placer les enfants en contact raisonné avec le monde du langage dans sa diversité et dans ses fonctions. » L. Dabène La réflexion métalinguistique crée les appuis pour les apprentissages langagiers, tant en langue étrangère qu'en langue de scolarisation. La comparaison entre les langues produit des effets de contraste qui permettent de développer les capacités de discrimination, d'observation et d'analyse des phénomènes linguistiques, oraux ou écrits. Ces compétences renforcent en contrepartie la maîtrise du français [] (Candelier, in Troncy, 2014) 16 L'Eveil aux langues est une démarche intégrée avec un triple objectif : cognitif, social et affectif. Il développe : - des attitudes. C'est une propédeutique à l'apprentissage aux langues étrangères. Elle émane d'une demande sociale et permet l'instauration de savoirs et de savoir-faire. 2.3. Des apprentissages scolaires aux enjeux identitaires et sociaux
Au-delà des frontières, l'Europe est « le territoire des traductions ». Le reconnaître participerait à créer une philosophie du monde, des êtres et de leurs constructions identitaires. En France, l'adoption du plurilinguisme nécessite une prise de conscience sociale et politique et une volonté de porter un regard critique quant aux langues et aux identités. La langue devient un outil concret pour conduire l'apprenant à adopter une position d'ouverture sur le monde et à construire une conscience de l'altérité. Candelier conçoit la didactique des langues comme un véritable projet social, capable d'incarner et de faire vivre en retour des valeurs humaines, sociales et citoyennes. Celle-ci participe à l'exercice de la citoyenneté démocratique car elle développe les trois compétences clés d'Audigier (2000) : les 17 connaissances sur le monde actuel, l'acceptation positive des différences et de la diversité et la capacité à intervenir dans le débat public. Ainsi, la France jouirait de la chance d'accueillir des enfants, « traducteurs des langues du monde, passeurs, inventeurs d'imaginaires métissés et multiples. » Les visées des approches plurielles sont de mettre en oeuvre deux types de mécanismes appelés, 'le global social' et 'le global individuel'. Ceux-ci n'interviennent pas au même niveau. Si l'un agit sur le plan de la cohésion sociale, grâce aux buts que les enseignements des langues doivent atteindre (le plurilinguisme). L'autre, la notion de compétence plurilingue et pluriculturelle unique, sert de point de départ à la détermination des moyens que cet enseignement doit mettre en oeuvre pour aider chacun à enrichir et à diversifier ses compétences. Plus particulièrement, l'E aux langues permet de créer des liens entre les expériences culturelles et linguistiques, de les comparer, de se questionner, de rechercher un sens partagé. On aboutit alors à la prise de conscience de la diversité de perception du réel dans l'action sociale par les êtres humains. Ce qui prime dans l'Eveil aux langues, c'est le chemin qu'il faut parcourir pour qu'émerge ensemble le sens partagé. Quelques soient les cultures, ce qui est commun, ce sont les perceptions sensorielles. L'Eveil aux langues crée ainsi les conditions de décentration pour que les cultures s'ouvrent les unes aux autres pour produire une culture tierce. Il permet la création d'espace intermédiaire entre les langues et entre les mondes encourageant l'émergence des savoirs parentaux et l'expression des conflits. Ainsi, il contribue à penser la prévention du risque transculturel. 3. Le dispositif choisi : de la fleur des langues à l'autoportrait. 3.1. Son inscription dans les programmes de 2016
Dans le volet 1 des programmes du cycle 2 parus au Bulletin Officiel du 24/11/2015, la première phrase est la suivante : « apprendre à l'école, c'est interroger le monde. » L'idée d'une grande diversité des élèves, attribuée à la variété de contextes familiaux mais aussi scolaires, y est également présente. La langue y est définie comme « un moyen pour donner plus de sens aux apprentissages puisqu'elle construit du lien entre les différents enseignements et permet d'intégrer dans le langage des expériences vécues. » De plus, « le travail sur la langue et celui sur la culture sont indissociables. ». Celui-ci consiste à s'exercer, réfléchir aux processus et aux stratégies mises en oeuvre dans la langue. En s'appuyant sur les connaissances préalables des élèves, l'enseignement reçu à l'école leur permet d'acquérir une réelle conscience métalinguistique. Le volet 2 propose pour le domaine 1, 'des langages pour penser et communiquer' : « En français, le rapprochement avec la langue vivante étudiée en classe permet de mieux ancrer la représentation du système linguistique : comparaisons occasionnelles avec le français, sur les mots, les ordres des mots, la prononciation. La rencontre avec la littérature est aussi un moyen de donner toute leur place aux apprentissages culturels, en utilisant la 19 langue étrangère ou régionale aussi bien que le français (albums bilingues).» J'inscris ma séquence dans le programme d'enseignement moral et civique paru au Journal Officiel du 21/06/2015. Je la situe dans le domaine'La sensibilité : Soi et les autres', plus précisément dans le second point'S'estimer et être capable d' écoute et d'empathie'. Objets d'enseignement Compétence visée Pratique de classe - Le respect des pairs et des adultes. Les atteintes à la 2/b- Accepter différences. les personne d'autrui [] Prendre conscience de ses - Le respect des différences, interconnaissance, pratiques linguistiques et de tolérance. celles des autres à travers des - La conscience de la diversité des croyances et des activités d'Eveil aux langues. convictions. Dans ce tableau, le lien entre les tâches réalisées en classe et les objets d'enseignement du programme se comprend ainsi : « une forme de retour sur soi, de moyen d'investigation par les élèves de leur propre culture. Il s'agit d'inciter l'élève à aller à la recherche de sa propre identité collective en l'interrogeant. Il s'agit de reconstituer un «nous» pour faire vivre un «je» d'apprenant autonome. » (Molinié, 2014)
3.2. Le cadre de l'étude 3.2.1. La classe
L'étude porte sur une classe de CE1 de vingt-deux élèves, composée de onze filles et de onze garçons. Tous nés en 2009, ils présentent une forte hétérogénéité tant socio-économique que culturelle bien que l'école soit en centre-ville d'Annecy (74). Je suppose ainsi la présence d'une diversité linguistique et culturelle. 3.2.2. Les objectifs Autrement appelés 'intentions pédagogiques' par Hameline (1979), les objectifs du dispositif rationalisent l'action pédagogique. 'Ce sont les outils de pensée qui contribuent [] à rendre intelligibles ce que l'on fabrique.' Ils favorisent la mise en place d'un enseignement explicite, le déroulement d'activités identifiables par des comportements observables et les conditions mêmes de la tâche. Ainsi, leur définition s'associe au niveau d'exigences attendu. Pour cette étude, je les définis selon plusieurs axes tels qu'ils sont décrits dans le tableau suivant : (Bajoit, 2010 :96, Alexandre, 2015)
20 Objectifs Didactiques : transmission des savoirs savants Faire Comportementaux : attitudes et capacités individuelles émerger la richesse linguistique et culturelle CLASSE Questionner 'l'identité' singulière Ethiques : transmission d'attitudes structure
Créer un « esprit de Avoir un climat caractérisé classe » par une meilleure par la tolérance et le respect inter-connaissance entre les élèves et plurielle Créer un lien entre les modalités scolaires et non scolaires d'acquisition et de transmission ELEVE Apprendre le respect de la Valoriser l'identité différence linguistique et culturel S'ouvrir à l'altérité Développer la. conscience linguistique et culturelle
Pour Astolfi, définir des objectifs signifie avant tout définir des 'obstacles franchissables' précis et qui sont attribués à un seul objectif. Leur dépassement met en place un mécanisme d'apprentissage et valide la compétence nouvelle de l'apprenant. (Alexandre, 2015)
Obstacles Didactiques
Accepter la compétence plurilingue : comprendre les diverses formes de CLASSE fréquentation d'une langue et admettre l'existence de compétence malgré les divers niveaux de maîtrise. Oser parler/ langues ELEVE savoirs de l'école et ceux du « dehors ». écrire pratiquées les sans appréhension du jugement de l'autre. Surmonter Rendre poreuse la frontière entre les Ethiques le regard Bouleverser la hiérarchie du groupe. Faire des liens d'autrui : les compétences entre les univers linguistiques de celles transcendent socio-culturellement acquises. chacun et aussi, entre le sien et celui des autres.
3.2.3. Le choix d'une approche plurielle
Les approches plurielles, en valorisant le déjà-là et en faisant un tremplin pour la construction de nouvelles compétences, favorisent les reconfigurations linguistiques et identitaires. Elles permettent aussi un rappel biographique qui fait fonction d'actualisation de faits, d'événements, de connaissances, de sentiments mis en mémoire, de retour en arrière pour comprendre son présent langagier, de construction de soi autour de la thématique des langues. (Perrégaux, 2002, in Troncy 2014) 3.3. L'étude se déroule sur plusieurs mois, en deux temps. Dès le mois de septembre, je propose la première partie de la séquence sur la biographie langagière qui aboutit à la construction de la fleur des langues. Puis, en janvier, je questionne la conscience pluriculturelle et plurilingue de mes élèves en leur proposant de réaliser leur autoportrait suivant la seconde partie de la séquence présentée dans le tableau des deux prochaines pages. La problématique de l'étude est la suivante : la conscience pluriculturelle et plurilingue est-elle identifiée et intégrée à leur conscience de soi ou demeure-t-elle intermittente et cloisonnée à des univers autres que celui scolaire?
Liste de mots clés : Education civique et morale – Cycle 2, CE1 – Pluriculturalisme et plurilinguisme – Eveil aux langues - Biographie langagière – Identité – Altérité Résumés
Dans un contexte de remise en cause des valeurs civiques en France, ce mémoire s'intéresse à la double question de l'égalité du citoyen et de la reconnaissance des droits des cultures dans l'institution scolaire. S'appuyant sur l'Eveil aux Langues tel que le définit Michel Candelier, l'étude a pour objectifs de développer une conscience pluriculturelle et plurilingue chez des élèves de CE1, d'observer les liens entre celle-ci et leur conscience de soi et donc, d'appréhender la porosité entre les univers scolaires et familiaux. Je leur propose donc de recueillir leur biographie langagière grâce au dispositif de la fleur des langues que je réinterroge par la suite grâce à la conception d'une carte d'identité imagée. Une majorité des élèves expriment leur appartenance multiple, y associant un sentiment de valorisation de leur identité plurielle. De plus, à travers le climat de classe serein et les résultats so ignés des activités lors de ces séances, il me semble que les objectifs sont atteints. Néanmoins, la prise de conscience de ses pratiques linguistiques est une compétence qui se construit sur le temps long car elle nécessite une posture réflexive non maîtrisée en cycle 2. This thesis is concerned with the dual issue of equal opportunities for citizens and recognition of cultural rights in educational institutions, within the context of the reconsideration of civic values in France. Drawing on language awareness as defined by Michel Candelier, the aim of the study is to develop multicultural and multilingual awareness with pupils in CE1 (primary 3, 7 – 8 year olds) and to observe links between this and their self-awareness and thus grasp the porosity between educational and family environments. I therefore recommend obtaining their language biography by means of the 'language flower' system, which I re-examine at a later stage by creating a picture identity card. The majority of pupils express their multiple backgrounds, associating a sense of value with their plural identity. Moreover, by means of a calm class atmosphere and the accurate results of the activities during the sessions, it would appear that the aims are achieved. Nevertheless, awareness of linguistic practices is a skill which is built over a long period of time, requiring a reflective approach, not yet learned in stage 2. 3.3.1. Le recueil de données : la fleur des langues.
Le choix de recueillir une biographie langagière auprès de mes élèves s'appuie sur la conviction exprimée par Edgar Morin selon laquelle avoir « vécu une expérience ne suffit pas pour que cette expérience devienne de l'expérience. Il faut sans cesse la régénérer et la reméditer. Si nous transformons l'expérience en conscience, nous sommes prêts pour un nouveau commencement ». Préconisée en didactique des langues, la biographie langagière permet de « mettre en mots des fragments d'identité plurilingue, singulière et inachevée. » Elle développe chez le locuteur 'la conscience d'être un sujet en devenir par les langues, par le langage'. (Molinié, 2014) Ainsi, grâce à la fleur des langues, outil adapté à une classe de CE1 où la place de l'écrit est encore peu importante, il me semble possible de questionner l'identité de chacun tout en observant son inscription par le groupe des autres semblables.
3.3.1.1. Les choix didactiques du dispositif philosophique.
Je choisis de débuter ma séquence par une discussion à visée philosophique afin d'évaluer les représentations que mes élèves ont du langage. Cette pratique permet de questionner un sujet, de chercher des idées et de les confronter afin de s'étonner ensemble et donc, de développer une pensée réflexive. Pour Pouyau (2012), cette compétence revêt un double intérêt : exprimer une pensée personnelle et se forger un esprit critique. La prise de distance née de l'explicitation favorise le cheminement conceptuel pour mieux comprendre le monde. Parallèlement, penser avec les autres demande d'argumenter, de nuancerCette capacité entre dans la construction de l'estime de soi et du respect des autres. Par conséquent, cela me semble être un dispositif idéal la question suivante : comment l'activité langagière contribue à développer chez le locuteur la conscience d'être un sujet en devenir? Mon choix didactique se porte sur la discussion à visée philosophique telle qu'elle est définie par M. Tozzi. Celle-ci s'appuie sur trois temps : questionner, conceptualiser, argumenter. La ritualisation (bougie allumée, classe assise en cercle, attribution des rôles) et la régularité de ces moments sont importantes pour l'appropriation du dispositif. Les activités sont variées, soutenues par des inducteurs également diversifiés (images, textes, extraits sonores ou vidéos). La première séance fait émerger les idées et problématise la discussion grâce à son titre qui prend la forme d'une question : 'Qu'est-ce qu'une langue?'. 26 A droite, les mots notés à la craie représentent les premières idé
es
des él
èves avant
la lecture de l'album La famille Totem. Puis, j'ai écrit leurs remarques sur des feuilles blanches au fur et à mesure de leurs échanges. J'ai ensuite proposé comme inducteurs des étiquettes avec les verbes associés à la langue et extraits de l'album pour enrichir ce temps de réflexion. J'ai effectué une nouvelle lecture et pour terminer,
j'ai
distribu
é
un montage des calligraphies variées existants dans l'album
3.3.1.2. La construction de la fleur des langues
La seconde séance a pour objectif de travailler une ou deux perspective(s) spécifique(s). Je choisis de questionner les rencontres individuelles de la langue en m'appuyant sur un texte. Cette séance s'inspire d'un travail mené par le laboratoire de didactique des langues de Grenoble, le Lidilem, sur les biographies langagières. L'écrit proposé aux élèves décrit la fréquentation des langues par une petite péruvienne de 7 ans qui s'appelle Chaska. A travers ce récit, les élèves s'approprie la pratique de la langue : connue, comprise, rencontrée à l'oral ou à l'écrit. Ce choix incite ensuite l'enfant à questionner ses pratiques. (cf. annexe 1) Les différentes étapes de la construction du « bouquet » de la classe s'observent sur les photographies suivantes depuis de la constitution d'une corolle à la matérialisation de la fleur. Toutes sont ensuite réunies dans un pot. Les appartenances linguistiques de chacun deviennent perceptibles visuellement pour l'ensemble des élèves. 27 D'un point de vue linguistique, la première partie de la séquence nous a permis d'obtenir les résultats suivants. Langue(
s
)
parlé(es)
Langue(s) compris(es) Langue(s) entendu(es) Espagnol, Marocain Anglais, Bosniaque Arabe, Français Ne. Français, Bosniaque Anglais, Italien S. Français, Arabe Algérien Chinois, Anglais N. Français, Arabe Anglais, Chinois No. Français, un peu Chinois, Italien, Anglais, Espagnol Chinois, Français Anglais E. Français, Albanais Anglais J. Français, Chinois Anglais T. Français Japonais, Anglais, Chinois L. Français Anglais d'Amérique Portugais, Italien, Espagnol, Anglais, Chinois, Japonais M. Français, Arabe Anglais Anglais D. Français, Kurde Kurde Italien, Anglais, Chinois Thaïlandais A. Français, Bosniaque Anglais Z. Français, Thailandais, Japonais, Serbe, Italien, Arabe Anglais B. Français, Arabe Arabe, Chinois Tom. Français, Portugais Portugais Turc, Arabe C. Français Anglais, Japonais E. Français, Albanais Anglais, Serbe Italien An. Français Thaïlandais, Italien, Japonais Espagnol, Anglais, Chinois L. Français, Arabe Espagnol Anglais, Japonais N. Ar. Français, Albanais Se. Français, Arabe K. Français, Arabe absent Arabe Turc absent Anglais Anglais Langue(s) vu(es) Arabe Arabe Japonais Arabe Chinois Anglai Arabe Chinois Anglais, Espagnol Chinois Arabe, Japonais Arabe Japonais Rom ou Italien? Portugais Chinois Albanais, Serbe Anglais, Chinois Japonais, Anglais, Chinois absent Chinois Anglais, Arabe 28
Dans cette classe, il y a donc dix langues parlées, deux comprises et quatre supplémentaires entendues ou vues écrites. Dès le début de l'année scolaire, les élèves ont fréquenté seize langues avec des niveaux variés de compétences.
3.3.2. Le support de questionnement : le cartouche individualisé
La seconde partie de la séquence porte sur la conception et la réalisation d'un cartouche individuel, constitué des caractéristiques de l'élève. Cette étape s'appuie sur le principe suivant : la narration se trouve au coeur de la question identitaire. Ainsi, le philosophe P. Ricoeur (442, 1985) écrit : « Sans le recours de la narration, le problème de l'identité personnelle est en effet voué à une antinomie sans solution. [] Le dilemme disparaît si, à l'identité comprise au sens d'un même (idem), on substitue l'identité comprise au sens d'un soi-même (ipsé) ; la différence entre idem et ipsé n'est autre que la différence entre une identité substantielle ou formelle et l'identité narrative. [] L'identité narrative, constitutive de l'ipséité, peut inclure le changement, la mutabilité, dans la cohésion d'une vie » J'essaie de déceler à travers les portraits la place du pluriculturalisme et du plurilinguisme dans les oeuvres des élèves. J'ai pour hypothèses : - Les langues sont des composantes identitaires explicites - Les langues sont des composantes identitaires non explicitées pour diverses raisons - Les langues non mentionnées ne sont pas considérées comme composantes importantes de l'identité pour l'élève. Pour les tester, je propose le dispositif suivant. Après avoir relu l'album 'Langues de Chat', nous débutons la séance en décrivant les deux personnages principaux : Olivia et Léon. Nous recherchons leurs ressemblances et leurs différences. Sur la partie droite du tableau, je leur propose un résumé de l'album construit par un des groupes de la classe lors d'une séance précédente. Puis, l'activité a pour objectif d'associer un personnage de l'histoire à sa fiche de caractéristiques. Cette recherche est menée rapidement avec des résultats consensuels entre les groupes. Nous listons les caractéristiques qui ont permis de reconnaître chaque acteur du récit : langue, goûts alimentaires, relations humaines privilégiées Pour réaliser leur autoportrait, les outils de réalisation sont simples : feuille de couleur, miroir, crayon de bois (cf. annexe 2) 29 Le cartouche individualisé est réalisé en deux temps : une première séance autour de l'autoportrait dessiné et une seconde adossée à deux tableaux mentionnant cinq caractéristiques d'eux-mêmes : activité, relation, langue, aliment, autre. Ces dernières sont exprimées par des mots dans le premier puis dessinées dans le second. Le critère de réussite est d'être reconnu par l'observateur du cartouche.
3.4. Les résultats de l'étude 3.4.1. Les aménagements de la séquence
Au cours de cette séquence, j'ai fait évoluer à plusieurs reprises mes séances en fonction des difficultés rencontrées par les élèves. Ainsi, à la fin de l'étude du texte sur Chaska (séance 2), les élèves ont mis beaucoup de temps à comprendre le texte puis à réaliser la tâche associée. Ils n'ont pas eu la possibilité de s'approprier les idées et donc, les objectifs de séance. Les travaux obtenus ne transmettent pas la richesse culturelle de la classe. (cf. annexe 2). Le lendemain, je propose de reprendre le contenu de l'exercice de manière collective. Nous illustrons ensemble la biographie langagière de Chaska au tableau (séance 3). 30 Le bouquet construit, nous concevons les autoportraits sous forme de cartes d'identité. Lors de la première séance dédiée (séance 5), je relance de manière plus ou moins insistante avec les inducteurs en fonction de ce que j'observe. Les résultats ne me satisfont pas. Les élèves se focalisent sur la nécessité de se dessiner d'après l'image perçue dans le miroir. Plusieurs comportements s'observent : certains essaient de reproduire ce qu'ils voient, d'autres plus circonspects quant au résultat soit abandonnent, soit s'échappent vers des modes de représentations stéréotypés ou simplistes. La plupart ne s'appuient pas sur les cartes du jeu pour réfléchir à leurs caractéristiques autres que celles physiques. J'en conclus alors que les élèves demeurent assez éloignés de la consigne. A la suite de cette séance, j'échange avec une collègue et je décide de leur proposer un support complémentaire qui répond à la consigne :'Se présenter sans se représenter'. Je conçois deux tableaux dans lesquels ils expriment cinq de leurs caractéristiques : activités préférées, relations affectives, monde des langues, plat aimé et autres. Dans un premier temps, ils mettent en mots ces attributs et dans un second temps, ils les dessinent dans un cadre contraint.
3.4.2. Les données linguistiques issues de la réalisation des autoportraits
A la fin de la deuxième séance, j'ai ramassé les cartouches pour en retranscrire les informations dans le tableau ci-dessous. Celui-ci complète les données recueillies lors de l'élaboration de la fleur des langues . Langue(s) parlé(es) Ne. Espagnol, Marocain Arabe, Français Français, Bosniaque S. N. N. No. E. J. T. L. M. D. A. Langue(s) compris(es) Algérien Langue(s) entendu(es) Anglais, Bosniaque Anglais, Italien Chinois, Anglais Anglais, Chinois Italien, Anglais, Français, un peu Espagnol Chinois, Anglais Chinois, Français Français, Albanais Anglais Français, Chinois Anglais Japonais, Anglais, Français Chinois Portugais, Italien, Anglais Espagnol, Anglais, Français d'Amérique Chinois, Japonais Français, Arabe Anglais Anglais Italien, Anglais, Français, Kurde Kurde Chinois Thaïlandais Français, Bosniaque Anglais Langue(s) vu(es) écrite(s) Arabe Arabe Japonais Arabe Mention d'une ou plusieurs langues Espagne' (pays où réside encore sa grand-mère) drapeau de la Bosnie je vais à l'école Vaugelas' en écriture arabe palais perse stéréotypé Chinois chiffres calligraphiés en chinois, hello, bonjour Anglais Arabe drapeau de la France drapeau de la Chine Chinois drapeau de la France drapeau de la France Chinois drapeau de la France Arabe, Japonais drapeau de la Turquie, 'je vais à l'école' en kurde Arabe drapeau autre 31 Z. Français, Thaïlandais, Anglais B. Tom. C. Français, Portugais Français E. Français, Albanais Portugais Anglais, Serbe Japonais, Serbe, Italien, Arabe Arabe, Chinois, Meyelt? Turc, Arabe Anglais, Japonais Italien Japonais drapeau de la France Rom ou Italien? drapeau de l'Algérie Portugais Chinois drapeau de la France drapeau de la France Albanais, Serbe drapeau de l'Albanie Thaïlandais, Italien Espagnol, Anglais, Chinois Anglais, Chinois Japonais Japonais, Anglais, Japonais Anglais, Chinois An. Français L. Espagnol Ar. Se. Français, Albanais Français, Arabe Arabe Anglais Chinois K.
| 21,768
|
tel-04148051-POUTEYO_Michael_2021LYSEN023_These.txt_37
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Enfant, Institution, Ecriture : Fernand Deligny et la philosophie. Philosophie. Université de Lyon, 2021. Français. ⟨NNT : 2021LYSEN023⟩. ⟨tel-04148051⟩
|
None
|
French
|
Spoken
| 7,100
| 10,454
|
Aussi limitée et partielle qu’elle soit pour les sciences exactes comme les mathématiques ou la philosophie, la description devient rapidement l’objet premier des sciences naturelles, au premier rang desquelles l’histoire naturelle qui se posent à son sujet bien des questions. Comment organiser 830 Article « Description » dans D. Diderot, Encyclopédie ou dictionnaire raisonné des sciences, des arts et des métiers, (1772), disponible en ligne : [http://enccre.academie-sciences.fr/encyclopedie/article/v4-2213-2/]. 496 les descriptions? Selon quels critères et quelle organisation? Ce sont les questions essentielles des sciences qui s’attaquent non plus aux lois de la nature et aux abstractions d’un réel mathématisable, mais bien à la multiplicité du réel qu’elles ont sous les yeux. Alors que les grandes expéditions et les grandes conquêtes ne cessent de montrer la diversité du vivant aux quatre coins de la terre, il importe pour ce que Foucault a appelé « l’épistémé taxinomiste » de l’époque d’inventorier, de comparer, de classer, d’organiser la multiplicité foisonnante du réel. On peut suivre les analyses de Foucault sur ce point et voir que face à un réel dont les « propriétés et les circonstances » – pour reprendre les mots de Jaucourt – sont si hétérogènes, il importe de les organiser afin de pouvoir en tirer un savoir, plutôt que d’en chercher la nature. En parallèle de l’essor des sciences dites exactes, pensées sur le modèle de la géométrie et de l’arithmétique, les sciences naturelles entendent donc elles aussi produire un autre type de connaissances. L’enjeu est de dépasser le saisissement, l’émerveillement voire la crainte devant la multiplicité du vivant pour pouvoir l’appréhender par l’esprit. C’est dans cette entreprise que la description revêt un intérêt de première importance, comme l’écrit Foucault : L’Histoire naturelle à l’âge classique ne correspond pas à la pure et simple découverte d’un nouvel objet de curiosité : elle recouvre une série d’opérations complexes, qui introduisent dans un ensemble de représentations la possibilité d’un ordre constant. Elle constitue comme descriptible et ordonnable à la fois tout un domaine d’empiricité.831 Si la description échoue à donner la nature des choses, elle est un procédé humain pour appréhender le réel dans toute son hétérogénéité, une manière dont l’esprit s’attache à la matière pour en organiser la restitution et se la rendre compréhensible. La description ne part ni ne vise l’a priori, elle ’attache à l’empirique et par la manière dont elle s’attache à le découper pour le rendre intelligible, elle entend produire un ordre qui la dépasse, capable de perdurer dans le temps. En cela si la description plonge dans un premier temps dans tout le divers du réel, elle doit en ressortir pour faire perdurer ses cadres de pensée dans la durée. Curieuse dualité, il y a à la fois quelque chose de parfaitement contingent dans la description – dans la particularité des éléments qui la constituent – mais également quelque chose qui entend perdurer, qu’il s’agisse de son organisation, de son mode de classement ou des éléments qu’elle entend saisir pour se rendre intelligible le réel. Décriée par les encyclopédistes sur le plan scientifique, centrale dans les sciences naturelles, la description retrouve un nouvel essor au XIXe siècle, dans le roman. Au sein du récit, elle met en pause l’action pour planter le décor, installer les personnages, revenir sur leur passé ou leurs principales caractéristiques. Elle permet de dessiner l’arrière-plan sur lequel peut se dérouler la trame narrative. Pour ce faire l’auteur doit se montrer bien plus occupé à un travail
831 M. Fouc
ault
, Les
mots
et les choses
,
(
1966
), Paris, d
coll. « Tel », 2004 p
qu’aux joies de la création, plus affairé à sa tâche qu’emporté par l’inspiration. C’est que la description est davantage affaire de vocabulaire proprement technique que d’imagination. Lorsque Melville décrit la manière dont le navire d’Achab est préparé avant la campagne de chasse à la baleine, il lui faut parler sans faute du gaillard arrière, de sa proue et de son mât de misaine, en employant pour ce faire les mots les plus précis et les plus appropriés. Il en va à la fois d’un vocabulaire technique et d’une technique littéraire où le détail est d’importance. C’est autour de cette question de la place du détail dans la description que se sont livrés bien des débats la concernant832, mais ce qui nous intéresse ici c’est qu’il en va d’un certain savoir, proprement technique, que met à jour la description. Étymologiquement, de-scribere signifie « écrire d’après un modèle » et pour ce faire le vocabulaire se doit d’être précis pour reproduire de manière la plus fidèle possible le modèle proposé. Le savoir n’est pas tant dans les choses que dans les mots utilisés, qu’ils soient connus de l’auteur auparavant ou qu’il en fasse la récolte dans toute la documentation nécessaire à la construction de sa description833. Qu’il s’agisse des armes des chasseurs de baleine ou des outils du menuisier, leur description nécessite que l’auteur connaisse les objets par les mots qui sont les leurs dans les domaines considérés afin de conserver autant que faire se peut la vraisemblance du tableau qu’il entend dépeindre. La description relie alors autour de l’usage d’un vocabulaire propre, technique, aussi bien les lieux, les objets que les personnages qui vont participer à la dynamique du récit. C’est à travers le choix des éléments qui la constituent que va pouvoir s’ancrer le récit dans une réalité crédible et qu’en retour, le récit va trouver les éléments sur lesquels s’appuyer. Autour des querelles concernant la place du détail dans la description – la majeure partie de ses détracteurs condamnant leur excès et leur surabondance – se joue surtout une question de choix. Que décrire? Quels éléments faire entrer dans la description? À quelles fins? Si la description plante le décor, elle ne fait pas que mettre en place la trame matérielle sur laquelle va se dérouler le récit. Elle n’est pas qu’une exposition horizontale des éléments propres à comprendre une situation. Dans le choix même des éléments qui la composent, elle engage un processus vertical – ou à proprement parler analytique – où ce qui apparaît dans le récit pourra y trouver si ce n’ est des origines, au moins des liens, des sources. Autrement dit, c’est par la description que l’auteur peut mettre au jour des liens entre les événements, les causes des déterminations psychologiques de ses personnages, etc. Affaire de surface, la description permet également de rendre compte d’une profondeur dans laquelle il faut s’aventurer pour saisir les véritables liens entre les éléments qui font avancer l’intrigue. Dans la majeure partie 832 R. Barthes parle du « détail inutile » auquel l’analyse structurale échoue à donner une fonction dans le récit, et que l’on réduit le plus souvent à « une sorte de luxe de la narration » ; R. Barthes, « L’effet de réel », Communications, n°11, 1968, p. 84. Sur l’ensemble de la question, voir P. Hamon, La description littéraire, « Le détail inutile et le faire croire retors », ouvr. cité, p. 9. 833 P. Hamon, Du descriptif, Paris, Hachette, 1993, p. 48. 498 des romans du XIXe siècle, notamment chez Dostoïevski ou Balzac, elle esquisse à la superficie ce qui détermine au fond l’action des personnages. En cela, la manière dont elle est agencée est tout aussi importante que les objets auxquels elle s’attache, qu’il s’agisse des lieux, des personnages ou bien des objets. Comprise de la sorte, elle sert à expliquer, à déplier progressivement les liens qui unissent les faits, les personnages et leurs actions, leurs réactions. C’est grâce ces caractéristiques là qu’elle peut permettre au récit de devenir presque plus vraisemblable que la vie elle-même, en tout cas de l’ancrer dans une réalité crédible comme l’écrit Balzac dans Eugénie Grandet : Assez souvent certaines actions de la vie humaine paraissent, littérairement parlant, invraisemblables, quoique vraies. Mais ne serait-ce pas qu’on omet presque toujours de répandre sur nos déterminations spontanées une sorte de lumière psychologique, en n’expliquant pas les raisons mystérieuses conçues qui les ont nécessitées? (...) Beaucoup de gens aiment mieux nier les dénouements, que de mesurer la force des liens, des nœuds, des attaches qui soudent secrètement un fait à un autre dans l’ordre moral.834 De la vie à la littérature ce n’est pas l’action qui change, l’une et l’autre proposent autant de faits incroyables que de réactions inimaginables ou d’événements surprenants. Tout l’enjeu réside pour la littérature dans la manière dont ils sont exposés, c’est-à-dire montrés avec suffisamment de détails pour qu’il soit possible d’en comprendre la teneur, d’en saisir l’origine, à tout le moins de les appréhender. Célèbre pour ses descriptions, Balzac montre le retournement qui s’opère lorsqu’il s’agit de passer de la vie au récit. Grâce à cette expression, « littérairement parlant », il montre clairement la disjonction à l’œuvre dans le texte qui, au contraire de la vie, n’a pas à être vrai mais bien vraisemblable. C’est dans cet écart que doit se travailler le texte et que peuvent se comprendre les places respectives du récit et de la description. Dans la vie courante, le fait ou l’événement, peuvent se montrer aussi extraordinaires, surprenants, inattendus ou originaux que ce soit, ils ne sont pour l’individu qu’affaire de vérité ou de mensonge. Aussi étonnante que soit la destruction des Twins Tower par deux avions détournés de leur plan de vol, elle n’a à faire qu’avec le vrai et le faux, elle est advenue ou non, que le monde entier en soit sidéré ou pas. Le texte littéraire en revanche, et en premier lieu le récit, n’a pas à voir avec le vrai ou le faux. Même lorsqu’il entend transcrire en mots une réalité, il est avant tout affaire de littérature et donc, dans une mesure plus ou moins grande, affaire de fiction. Les chroniques de Villani, quand bien même celui-ci entend faire le récit des faits advenus dans la Florence de la Renaissance, sont le fruit d’un travail littéraire où le choix des événements et de tous les détails qui les composent relève d’une forme d’évaluation. Il ne s’agit plus de savoir si ce qu’il écrit est vrai mais si le texte produit rend son contenu crédible, autrement dit vraisemblable. Comme on l’a déjà abordé en examinant le Poème pédagogique de Makarenko ou Ker Goat de Joubrel, même un ouvrage qui n’entend être que la 834 H. de Balzac, Eugénie Grandet, Paris, Gallimard, coll. « Pléiade », 1947, Tome 3, p. 554. 499 relation de faits véritables advenus devant les yeux de l’auteur, dès lors qu’il prend une forme narrative, a à faire avec une construction capable d’en assurer la vraisemblance. C’est à cette fin que la description doit contribuer dans la littérature classique, et c’est tout l’enjeu de sa constitution. Elle ne peut s’en tenir à présenter uniquement l’arrière-plan sur lequel se déroule l’action, comme une pause dans le récit le temps d’en installer le décor et les accessoires nécessaires. Elle ne peut non plus être présentée comme une expression directe de la réalité de ce qu’elle entend restituer puisque son rapport à la réalité ne relève pas de l’ordre du vrai mais du vraisemblable. Dans sa construction et ses qualités littéraires, elle a pour fonction de convaincre en quelque sorte le lecteur que ce qu’elle dépeint, et a fortiori que l’action qu’elle sous-tend, est possible ; non pas que cela soit advenu mais que cela puisse advenir. Si l’on veut bien prendre au sérieux cette fonction, cela signifie que la description n’est pas à entendre comme un simple ornement littéraire, un seul monument de bravoure stylistique par lequel l’écrivain devrait faire ses gammes ou montrer sa technique – comme le fait l’artisan compagnon en produisant à la fin de son tour de France un « chef d’œuvre » – mais comme une entreprise par laquelle il entend convaincre son lecteur que ce qu’il écrit est, si ce n’est avéré, à tout le moins possible. Ce serait beaucoup dire que la description ferait œuvre d’argumentation afin d’emporter l’adhésion du lecteur, mais on peut la voir en tout cas comme un travail du texte où la dimension fonctionnelle est tout aussi importante que la dimension esthétique. La description n’est pas seulement œuvre d’art, elle ne relève pas comme cela a été longuement le cas dans la culture antique, du genre épidictique, c’est-à-dire du discours d’apparat, réalisé à seule fin de se faire admirer de son auditoire. Avec le roman, et encore plus au fur et à mesure du XIXe siècle, la description est un travail, une technique littéraire pour susciter l’adhésion du lecteur à une certaine vision du réel. Il s’agit là d’une modification de la vraisemblance que cherche à assurer le récit en donnant, par la description, des gages de la présence de la réalité de ce qui compose le récit. Pour ce faire, la description n’a pas à présenter l’exhaustivité d’une situation, d’un lieu, d’un objet, d’un événement – ce qui serait une entreprise impossible de toute façon – mais elle doit en quelque sorte donner des gages que cette situation, ce lieu, cet objet, cet événement pourrait être réel, ce que Roland Barthes appelle fournir un « effet el ». le baromètre de Flaubert, la petite porte de Michelet ne disent finalement rien d’autre que ceci : nous sommes le réel ; c’est la catégorie du « réel » (et non ses contenus contingents) qui est alors signifiée ; autrement dit, la carence même du signifié au profit du seul référent devient le signifiant même du réalisme : il se produit un effet de réel, fondement de ce vraisemblable inavoué qui forme l’esthétique de toutes les œuvres courantes de la modernité.835 835 R. Barthes, « L’effet de réel », art. cité, p. 88. 500 Alors qu’il échoue à trouver une fonction à la description – en tout cas à certains de ses éléments qui ne sont pas nécessaires pour faire avancer l’action – Roland Barthes en vient à la conclusion que sa fonction n’est pas tant d’être nécessaire ou utile à la narration, mais en définitive de faire signe vers une réalité qui la sous-tend. Les objets qu’elle dessine, les personnages qu’elle installe, les paysages qu’elle dépeint ne sont pas nécessaires à l’action qui a cours dans le récit. Ils ne sont pas non plus uniquement un décalque de la réalité qu’il s’agit de restituer avec art. Ils sont la marque même du réel dans le récit, la « catégorie du réel » qui, en tant que telle, produit sur le lecteur un « effet de réel ». La description dépasse alors le récit dans lequel elle s’inscrit pour faire signe vers un réel non pas qu’elle transcrit mais dont elle atteste. 2.3. LA DESCRIPTION CHEZ DELIGNY : ECRIRE LES COÏNCIDENCES
Chez Deligny, l’importance du descriptif ne se montre pas dans la surabondance de paysages, d’objets ou de détails propices à faire tenir le récit dans une réalité vraisemblable pour le lecteur. Si c’est un des traits de son écriture narrative, la description n’est pas que l’un des outils du récit, ni uniquement une « frontière du récit » pour reprendre l’expression de Gérard Genette, mais elle apparaît plutôt comme une tonalité de son écriture toute entière. Pour le dire autrement, il semble que c’est l’écriture de Deligny que l’on peut qualifier à bon droit de descriptive et ce, dès ses premiers ouvrages. Il s’agit là d’une manière d’écrire qui correspond à sa manière de penser. Pour articuler une pensée qui considère l’individu dans ses interactions avec un milieu et en dehors de l’orbe de la subjectivité – et du paradigme de l’intériorité qui va avec – il lui faut trouver une écriture qui lui corresponde. Une écriture des contours, du dehors, de ce qui apparaît, des relations entre les différents éléments d’une situation, une écriture plate en quelque sorte, ou aplatie, c’est-à-dire à laquelle est ôtée la prééminence du sujet qui, devenu individu, n’est qu’un élément à circonscrire parmi d’autres. C’est une écriture au sein de laquelle se correspondent non seulement l’objet qu’entend se donner Deligny – un individu sans subjectivité – mais également sa manière de faire avec – une action sur les circonstances qui entourent cet individu, le milieu dans lequel il est situé. Écrire pour défendre la tentative c’est alors trouver un mode de restitution capable de respecter les liens ténus entre l’individu et son milieu, et faire affleurer ceux que le langage a pu obscurcir ou passer sous silence. C’est là un défi auquel s’attelle Deligny, et c’est même le paradoxe que recèle son écriture, puisqu’il s’agit de restituer par le langage ce que le langage obscurcit. Son écriture semble plus proche de celle d’un éthologue ou d’un naturaliste que d’un romancier classique, et la description y prend une fonction et une valeur toute particulière. Il vaut donc la peine de revenir un instant sur la pratique de la description dans ce que Buffon appelait l’Histoire Naturelle, qui se décline au fil du XIXe siècle en autant de disciplines que d’objets : botanique, zoologie ou éthologie venant alors constituer la Science Naturelle. Alors que le monde ne cesse de s’ouvrir depuis deux siècles grâce aux navigations ultramarines, et que les occidentaux commencent à explorer les endroits les plus reculés de la planète, ils découvrent, observent, aperçoivent des animaux, des plantes, des paysages inconnus jusqu’alors. Il importe de les recenser, de les comparer, de les regrouper en classes, puis espèces, et dans cette vaste entreprise de taxinomie, la description joue un rôle de premier plan. Faire l’inventaire des états conquis par les navigateurs et les armées au nom du roi, de l’empereur ou du tsar, en dessiner les contours, l’étendue et répertorier les richesses qu’ils contiennent permet de manifester leur pouvoir. Recenser et décrire les différentes espèces animales ou végétales, comme les différentes techniques et avancées scientifiques qui ont cours dans le royaume, c’est aussi en montrer la puissance. Ainsi, en France, à partir du XVIIIe siècle, le Cabinet du Roi contient l’ensemble des espèce végétales et minérales connues, et lorsque Buffon en devient le surintendant il a pour première ambition d’en faire la description systématique. C’est cette entreprise qui lui prendra près de cinquante ans et qui donnera naissance à L’histoire naturelle, générale et particulière, avec la description du Cabinet du Roi, ouvrage monumental de trente-six volumes dont le succès à l’époque sera colossal. Sans entrer plus avant dans le détail de l’œuvre de Buffon, elle nous permet de constater qu’alors que la description était décriée dans L’encyclopédie en tant que technique littéraire aux antipodes de la philosophie, elle est louée, thématisée et abondamment utilisée dans la science naturelle naissante. Même dans L’Encyclopédie de Diderot, dans l’article qui précède celui que l’on a déjà cité, Daubenton836 – l’un des principaux collaborateurs de Buffon pour la rédaction de l’Histoire naturelle – fait de la description la base de la connaissance véritable en écrivant que « la description d’une chose renferme sa définition ». Buffon va même plus loin, en inversant la hiérarchie entre définition et description pour donner le primat à la seconde : la définition [...] n’est encore que la représentation très imparfaite de la chose, et nous ne pouvons jamais bien définir une chose sans la décrire exactement.837 En dehors de la littérature et de la philosophie, la description s’affirme comme une manifestation de la puissance de l’esprit humain appliquée à la diversité de la nature. Celle-ci est non seulement appréhendée mais domptée, maîtrisée, pour être restituée de manière organisée, systématisée, hiérarchisée. Le Roi est maître de ses états, et l’histoire naturelle entend rendre l’homme maître de ses connaissances face au divers du monde. Pour ce faire, la pratique descriptive – de manière claire dans l’Histoire naturelle, mais également dans l’Encyclopédie – allie le langage et l’image. Les volumes de planches succèdent aux volumes d’articles et les gravures font le pendant des explications 836 Louis Jean-Marie d’Aubenton, dit Daubenton, (1916-1799), médecin et naturaliste français, il est le premier directeur du Muséum national d’histoire naturelle. Proche de Buffon, il a travaillé pendant dix ans avec lui à la rédaction de l’Histoire naturelle des animaux (1749), travaillant essentiellement sur des descriptions d’anatomie comparée entre les différentes espèces. Également collaborateur de l’Encyclopédie de Diderot, il y rédige plus de neuf cent articles
837 Buffon, « Manière de traiter l’histoire naturelle », Histoire naturelle générale et particulière (1749), tome 1, p. 25. 502 scientifiques. Décrire devient autant faire voir qu’ordonner un donné protéiforme dont le détail et le foisonnement doivent être soumis par l’esprit humain. Il y est tout autant question de science que d’art, comme en bien des domaines à l’époque, et le talent proprement littéraire du scientifique doit s’allier à celui du dessinateur et du graveur838. Le parallèle avec l’histoire naturelle de l’époque moderne, qui deviendra par la suite éthologie, n’est pas inutile lorsque l’on examine la pensée et l’écriture de Deligny. Pour qui s’y aventure, de prime abord apparaissent araignées, canards, chèvres, choucas, et le bestiaire présent dans ses œuvres ne cesse de s’étoffer au fil des ans, tout comme son intérêt pour les travaux de Jacob von Uexküll, de Konrad Lorenz ou de Karl Von Frisch. Tout se passe comme si à leur lecture, et en leur compagnie comme il le dit lorsqu’il évoque la présence bien réelle pour lui des ouvrages et de leurs auteurs à ses côtés, Deligny avait trouvé la clef d’une manière d’écrire qu’il va progressivement radicaliser, préciser, pour utiliser régulièrement la référence à l’éthologie, au comportement animal afin de rendre compte ou de le comparer avec le comportement humain, et s’affranchir de la référence au sujet. C’est ce que l’on constate dans bien des endroits de son œuvre à partir des années soixante-dix, lorsque la référence aux éthologues revient afin de s’opposer aux prétentions de la psychanalyse, toute entière focalisée sur le sujet. D’une manière générale, quand je m’appuie, au passage, sur un morceau de dire scientifique, il s’agit d’un dérapage contrôlé. En l’occurrence, on m’avait apporté́ quelques livres de ce Konrad Lorenz et ce qu’il disait des trajets réitérés d’une oie cendrée m’a semblé́ plus proche de certains trajets d’un gamin autiste que ce qu’en dit une certaine mythologie psychanalytique.839 Au nombre des sciences que Deligny utilise ou dont il se sert dans sa propre réflexion, l’éthologie possède une fonction centrale et même stratégique dans sa recherche qui entend esquiver à la fois la centralité du langage et celle du sujet. Comme il l’expose dans la même lettre au psychanalyse Franck Chaumon, il ne s’agit pas de nier l’un ou l’autre, mais bien de chercher une autre façon de penser le rapport au monde des enfants autistes, autrement dit d’articuler une autre manière de voir et de penser à une autre manière d’écrire. Sur le modèle des naturalistes qu’il convoque régulièrement dans ses textes, Deligny pense les rapports des individus avec leur environnement, avec les êtres humains qu’ils croisent, mais également avec les animaux et les plantes, les objets qu’ils manipulent, les endroits qu’ils fréquentent. Si la référence est explicite lorsqu’il écrit dans les Cévennes, la pratique littéraire qui en découle pour 838 Voir sur ce point D. Reynaud, « Pour une théorie de la description au XVIIIe siècle », Dix-huitième siècle, n°22, 1990, pp. 347-366. 839 F. Deligny, Lettre à F. Chaumon du 22 Déc. 1975, dans Correspondance des Cévennes, 1968-1996, ouvr. cité, p. 449. 503 Deligny semble installée depuis bien longtemps, pres liée à son écriture dès ses premiers textes. La plupart des éléments y sont mis sur le même plan, placés les uns à côté des autres, et leurs champs sémantiques respectifs se mélangent, comme dans les premières lignes de Pavillon III : Jean Georges René Teck est étendu dans l’herbe, sur le talus du chemin de halage. La musique qui suinte du café À l’étoile d’or l’exalte, souvenir d’une foire lointaine dans le temps où une foule douce, toujours renouvelée, coulait autour de lui sans le meurtrir et sans l’emporter. Lorsque la saison s’y prête, le talus, le long du canal, vaut une maison et l’eau, que l’on croirait fort occupée à circuler d’une écluse à l’autre, apporte des jouets. Trois grandes péniches vides viennent de s’arrêter, parce que le soir est proche, le long de la berge. René Teck regarde leur grand corps de bois frotté de goudron. La première est MarieClaire, la troisième est Dunkerquoise ; de la deuxième, on ne peut pas lire le nom. Toutes les trois ont un nez plat de grosse bête stupide.840 Disposés autour de cet enfant, les éléments se mélangent ; à l’instar de l’eau du canal la musique devient liquide et « suinte du café », les individus croisés dans une foire se mélangent dans une foule qui « coulait autour de lui ». Les objets et leurs fonctions se brouillent, et l’on passe de l’un à l’autre grâce à la plasticité que fournit la poésie du langage : le talus sur lequel l’enfant est assis « vaut une maison » et l’eau devient un personnage à part entière « fort occupée à circuler d’une écluse à l’autre », qui prend des airs de Père Noël alors qu’elle « apporte des jouets ». Ces derniers ne sont ni des petites voitures ni de petits mécanismes à monter, mais des péniches, qui revêtent une forme animale, dotées de « grands corps de bois », elles sont même dotées de prénoms, et ces prétendus jouets semblent devenir plus proches d’énormes bovins attachés dans leur étable lorsque « toutes les trois ont un nez plat de grosse bête stupide ». Dans ces quelques lignes, les premières de son premier ouvrage, Deligny déjoue d’emblée la manière dont le récit classique procède et utilise la description. Il ne s’agit pas uniquement de planter le décor en mettant en scène un jeune garçon en marge qui par la suite tranchera les amarres de trois péniches qu’il poussera pour qu’elles se percutent et bouchent le canal, qui assommera un autre enfant dans les remparts de la ville, qui a incendié des meules de foin et d’autres choses encore. Ce sont autant d’éléments qui arriveront au compte-goutte mais dans cette description inaugurale Deligny met cet enfant sur le même plan que ce qui l’entoure, le talus, l’eau, les péniches, en mariant le vocabulaire et les champs lexicaux qui les désignent. Pour le dire autrement, en esquivant le sujet autour duquel s’articule généralement le récit, il esquive déjà les usages habituels de la langue pour installer cet enfant dans un environnement tout entier. Dans la suite de ce premier récit, Deligny fait arriver les éléments qui amènent René Teck en prison 840 F. Deligny, Pavillon III, (1944), repris dans Œuvres, ouvr. cité, p. 53. 504 puis à l’asile les uns après les autres. Il ne fait pas d’emblée le portrait d’un enfant qui serait tel ou tel mais décrit progressivement les éléments – l’enfant, les péniches, les policiers, les objets, les lieux – dont l’association va constituer la situation. Il détaille et mêle les uns aux autres les ingrédients qui vont composer la recette de la situation de René Teck, sans articuler tout cela autour de sa personnalité et en prenant grand soin de répartir leur place. Chaque élément est disposé côte à côte jusqu’à ce que se dessine le récit du parcours du jeune homme. La narration prend alors une étrange allure, elle n’est pas organisée autour de la personnalité d’un enfant ou de la manière dont une institution quelle qu’elle soit en fait un sujet – fou ou délinquant, le lecteur ne peut qu’hésiter entre ces catégories – mais elle reste en retrait, conservant un ton fondamentalement descriptif. À la manière dont un éthologue décrit le comportement d’un animal en disposant avec soin les différents éléments qui constituent son environnement, l’écriture de Deligny se veut réaliste et elle se fait, en un certain sens, naturaliste. S’il s’agit d’une forme de réalisme, il faut l’entendre en un sens bien particulier. Il ne s’agit pas de donner un exposé scientifique de ce qui se passe dans la vie de cet enfant, pour mettre au jour les ressorts cachés et les rouages sociaux qui l’ont amené là. L’ambition de Deligny n’est pas celle de Balzac qui prétend retrouver les liens et les nœuds cachés entre les événements. Elle n’est pas non plus celle de Zola, il ne s’agit pas pour lui de produire une littérature dont les airs scientifiques pourraient rendre compte le plus exactement possible de la réalité qu’il a sous les yeux. Cela étant, pour préciser de quel type de naturalisme peut être l’écriture de Deligny, attardons-nous un instant sur la conception de la description dans le roman naturaliste de la fin du XIXe siècle telle qu’elle est exposée par Zola. Sans en faire un examen exhaustif, certains traits méritent d’être précisés afin que l’on puisse mieux cerner ce qu’il en va des rapports entre description et science d’une part, et des éventuels rapprochements ou distances que l’on peut établir avec l’écriture délinéenne. À la fin du XIXe siècle, Zola est un auteur qui revient régulièrement sur sa pratique de l’écriture et qui, entendant penser et inaugurer une nouvelle manière de faire des romans, se penche plus que tout autre sur la description. Dans un article de 1880, alors qu’il détaille ce qui fait pour lui l’importance de la description en littérature, il élargit d’emblée le cadre dans lequel elle est habituellement prise. Figure de rhétorique, élément détachable dans lequel l’auteur reprend des thèmes et des canons déjà élaborés avant lui pour montrer sa maîtrise technique, Zola dépasse cette définition technique pour envisager la description dans une histoire plus vaste, celle de ses rapports avec la science. Il serait bien intéressant d’étudier la description dans nos romans, depuis Mlle de Scudéry jusqu’à Flaubert. Ce serait faire l’histoire de la philosophie et de la science pendant les deux derniers siècles, car, sous cette question littéraire de la description, il n’y a pas autre chose que le retour à la nature, ce grand courant naturaliste qui a produit nos croyances et nos connaissances actuelles.841 841 Zola, « De la description », article paru dans le journal Le Voltaire, du 8 Juin 1880, repris dans P. Hamon, La description 505 Entendant faire de l’écrivain un scientifique capable d’apporter une connaissance des passions et des actions humaines, Zola réinscrit son propre travail dans le mouvement des sciences de son époque, résolument positiviste, appuyées sur la recherche des causes et la méthode expérimentale. En ce sens, « ce grand courant naturaliste » dépasse la seule littérature. Il ne s’agit plus de décrire uniquement d’après nature, mais de chercher dans la nature les causes et les effets qui président aux destinées humaines. De la même manière que les scientifiques depuis l’époque moderne scrutent le grand livre de la nature pour en saisir les lois, Zola entend mettre au jour celles qui déterminent le comportement humain. Dans Le roman expérimental, il développe plus avant la parenté entre le roman tel qu’il le conçoit et la méthode scientifique thématisée par Claude Bernard en médecine. L’un et l’autre se doivent d’être expérimentaux, c’est-à-dire de s’appuyer à la fois sur l’observation directe des phénomènes qui ont cours dans la nature, mais également sur leur compréhension par l’expérimentation, la mise en ordre des éléments propres à en faire comprendre les principes et les lois. Durant tout le premier chapitre de l’ouvrage, Zola cite et commente l’introduction de l’ouvrage de Claude Bernard, Introduction à l’étude de la médecine expérimentale, de 1865. Appliquée au roman, la méthode expérimentale telle qu’elle est défendue par Zola se fonde avant tout sur l’observation. Dans la pratique, il s’agit pour l’auteur de mettre en place une situation dans laquelle va se dérouler la narration. Ce faisant, il lui faut rendre compte des faits et des phénomènes qui vont s’avérer, au sens fort, déterminants, dans le fil de l’action des personnages. Ancré sur une conception forte du déterminisme, sa conception du roman se fonde ensuite sur l’expérimentation. En ce sens, l’action, l’intrigue, sont à comprendre comme une tentative d’expérience à partir de laquelle l’auteur engage une recherche, et vise à produire un résultat. En somme, toute l’opération consiste à prendre les faits dans la nature, puis à étudier les mécanismes des faits, en agissant sur eux par les modifications des circonstances et des milieux, sans jamais s’écarter des lois de la nature. Au bout, il y a la connaissance de l’homme, la connaissance scientifique, dans son action individuelle et sociale.842 Dans cette expérimentation, les ingrédients dont il s’agit de mesurer les influences, les interférences et les interactions, sont les circonstances et les milieux. C’est par leur modification que l’on peut changer les conditions de l’expérience et donc mieux appréhender les résultats possibles, autrement dit leur influence réelle sur le sujet, c’est-à-dire les personnages. Mécaniste, cette conception entend faire du roman un instrument scientifique propice à identifier des causes et des effets dans l’activité humaine. Le roman oscille donc entre deux pôles, entre la relation de faits avérés, la tentative de transcription fidèle de la réalité – la chronique ou ce qui tente de se faire passer pour tel comme le littéraire, ouvr. cité, p. 155. 842 Zola, Le roman expérimental, (1880), pp. 14-15. 506 Ker Goat de Joubrel – et d’autre part, l’expérimentation scientifique qui entend mettre au jour les lois de la nature auxquelles doivent obéir les comportements humains. Entre recension de l’accidentel, esthétique de la singularité, et tentation de l’universel, ce n’est rien de dire que le continuum dessiné entre ces deux extrêmes est vaste. Dans ce travail, la description est pour Zola l’un des traits de la méthode expérimentale telle que la science de son époque la développe dans les sciences de la nature. Dans le roman, elle n’est plus un exercice de style ou une marque de rhétorique, mais une affaire scientifique. Zola n’hésite pas à faire le parallèle avec la place de la description en zoologie pour montrer en quoi elle permet d’expliquer la place déterminante du milieu, de la nature, des circonstances, dans les passions et les comportements humains. La description romanesque change de but, et le vocabulaire qui la caractérise change du tout au tout dans la tradition littéraire. Décrire n’est plus notre but ; nous voulons simplement compléter et déterminer. Par exemple, le zoologiste qui, en parlant d’un insecte particulier, se trouverait forcé d’étudier longuement la plante sur laquelle vit cet insecte, dont il tire son être, jusqu’à sa forme et sa couleur, ferait bien une description ; mais cette description entrerait dans l’analyse même de l’insecte, il y aurait là une nécessité de savant et non une exigence de peintre. Cela revient à dire que nous ne décrivons plus pour décrire, par un caprice et un plaisir de rhétoricien. Nous estimons que l’homme ne peut être séparé de son milieu, qu’il est complété par son vêtement, par sa maison, par sa ville, par sa province ; et, dès lors, nous ne noterons pas un seul phénomène de son cerveau ou de son cœur, sans en chercher les causes ou le contre-coup dans le milieu. De là ce qu’on appelle nos éternelles descriptions. (...) Nous cessons d’être dans les grâces littéraires d’une description en beau style ; nous sommes dans l’étude exacte du milieu, dans la constatation des états du monde extérieur qui correspondent aux états intérieurs des personnages. Je définirai donc la description : un état du milieu qui détermine et complète l’homme.843 Décrire devient une « nécessité de savant » et non plus une technique de peintre, aussi doué et habile soit-il comme Zola le reconnaît à Théophile Gautier, quelques pages plus loin, coupable à ses yeux de n’utiliser la description qu’à des fins esthétiques. Si la description est un art, c’est un art libéral comme la médecine, au sein duquel il est autant question de savoir-faire que de savoir, d’expérience que d’expérimentation, de recherche pratique que de connaissance scientifique. Naturaliste, Zola ne cherche plus à décrire les mille et une beautés de la nature comme l’ont fait abondamment le XVIIIe siècle et le début de son propre siècle avec « les orgies descriptives du romantisme », mais il entend en examiner les lois et les mécanismes, pour mieux saisir l’action humaine qui est, de fait, le cœur 843 Zola, « De la description », dans P. Hamon, La description littéraire, ouvr. cité, p. 157. 507 même du roman. C’est le lien entre l’homme et son milieu qui devient déterminant, « nous estimons que l’homme ne peut être séparé de son milieu », parce que celui-ci à la fois le détermine et le complète. Déterminé par son milieu, ce dernier réunit l’ensemble des conditions de vie et de développement de l’individu. Sa veste, sa province, sa maison, ce sont autant de manière de faire voir l’individu et de le comprendre, puisque c’est par eux et à travers eux qu’il se manifeste. Le milieu – naturel mais surtout domestique, social, économique, politique – devient une expression de l’homme, une extension de lui-même par la manière dont il s’inscrit en lui, dont il influe sur lui, et dont il y laisse sa trace. Le milieu contient donc non seulement les causes et les déterminations susceptibles d’expliquer le comportement de l’individu, mais il est également le lieu où s’imprime son comportement, sur lequel viennent se transcrire matériellement ses états d’âme et ses actions. Dans ce processus de recherche, la description devient une étape cruciale, elle doit non seulement faire apparaître les causes du comportement des individus, mais également en montrer les effets. En permettant de chercher « les causes et les contrecoup dans le milieu » elle est bien plus une méthode scientifique qu’une figure de style. La description devient une « étude exacte » qui repose sur la correspondance entre une intériorité – celle du sujet – et une extériorité – celle de son milieu. Elle doit permettre de trouver selon quelles modalités peuvent correspondre l’intériorité des personnages, leurs passions, leurs mobiles d’action, et les conditions, les circonstances qui caractérisent le milieu où elles vont se dérouler. C’est autour de lui que s’articule alors la redéfinition de la description que propose Zola. Les milieux (...) existent, ils ont une influence évidente, considérable, et il n’y a aucune supériorité à les supprimer, à ne pas les faire entrer dans le fonctionnement de la machine humaine.844 Sans aller plus avant dans l’examen de la description chez Zola, quelques-unes de ses caractéristiques peuvent nous éclairer pour saisir un peu mieux ce qu’il en est dans la pratique littéraire de Deligny. Tout d’abord, s’il ne partage pas l’ambition scientifique de l’auteur des Rougon-Macquart, où priment le mécanisme et le déterminisme, Deligny fait lui aussi de la description une recherche. Pour le dire autrement, dans sa pratique scripturale, la description vise davantage à faire connaître qu’à témoigner, à poser côte-à-côte les éléments propres à faire comprendre une situation plutôt qu’à installer un décor ou à faire preuve de son habileté stylistique, pourtant bien réelle. Souvent, et plus encore à partir des années soixante-dix la description est convoquée au détour d’un passage argumentatif pour faire la preuve d’une recherche, non pas pour l’illustrer mais pour montrer par l’expérience ce qu’il en est des idées qui sous-tendent sa pratique. En ce sens, la description fait souvent office de compte-rendu d’expérimentation où Deligny ne s’attache pas tant à donner – ni même à trouver – un résultat, mais où il montre un soin scrupuleux à poser les différents éléments les uns à côté des autres. 844 Zola, Les
romanciers naturalistes (188
1),
repris dans P. Hamon, La description littéraire, ouvr. cité, p. 161. D’autre part, même si Deligny ne cherche pas à montrer une illusoire correspondance entre l’intériorité du sujet et l’extériorité du monde, la notion de milieu est centrale tant dans son écriture que dans sa pratique. Celui-ci ne contient pas la somme des éléments qui déterminent l’individu à penser, sentir ou agir de telle ou telle manière comme chez Zola, mais il ne peut en être séparé, il ne peut être compris isolément. Le milieu « complète » en quelque sorte chez Deligny l’individu parce qu’il est l’autre pôle à partir duquel et dans lequel se déroule l’action. Le milieu est ce « y » si difficile à saisir chez Deligny mais qui est essentiel pour restituer un comportement véritablement humain. Autrement dit, si Deligny n’utilise pas la description comme une méthode expérimentale, il montre un certain nombre de traits commun avec cette pratique naturaliste. Il ne vise pas une écriture naturaliste, comme serait celle que défend Zola, mais bien une pratique naturaliste de l’écriture, ou plus simplement une pratique de naturaliste où l’individu et le milieu doivent se prendre ensemble, de manière inséparable. Pour s’en convaincre, revenons sur le développement de la pratique descriptive chez les naturalistes du XIXe siècle, contemporains de Zola. Passée de la littérature à la science des espèces, la description joint le lexique et l’image, elle fait surtout de l’examen des surfaces une manière de répertorier et de connaître ce qui meuble le monde : plantes, animaux, minéraux, paysages, mais également objets, métiers ou techniques. La description s’étend. Plus qu’un ornement littéraire elle est une méthode de saisie de l’individu, de l’extérieur, c’est-à-dire dans et à partir de son milieu. À l’instar de la Renaissance et de sa passion pour l’incision, la dissection et l’examen des ressorts internes des corps, et en premier lieu du corps humain845, elle est une connaissance qui s’attache aux liens, aux rapports, aux relations entre les éléments qu’elle prend en ligne de mire et dont elle montre les solidarités malgré leur hétérogénéité. En contrepoint de cette passion pour l’analyse et l’examen des intériorités se développe progressivement – ou plutôt réapparaît régulièrement – la connaissance des surfaces, celle des liens entre les objets, les hommes, les animaux et les choses, qui se développe dans les rapports des phénomènes entre eux, les appariements extérieurs et les regroupements d’apparence. Développée principalement à partir de la moitié du XVIIIe siècle elle commence à décliner à la fin du siècle suivant. Dans les Museum d’histoire naturelle comme celui de Paris, l’entreprise classificatoire du vivant se poursuit notamment dans la pratique de la taxidermie846. Au lieu de conserver les spécimens 845 Voir R. Mandressi, Regard de l’anatomiste, Dissections et invention du corps en occident, Paris, Seuil, 2003, chap.V. 846
Sur le sujet
voir la thèse de Amandine Péquignot,
Histoire de la taxidermie en France (1729-1928) : Étude des facteurs de ses évolutions techniques et conceptuelles, et ses relations à la mise en exposition du spécimen naturalisé, soutenue en 2003 au Muséum national d’histoire naturelle. Voir également, J. Thiney et J. Vekemans, Mort ou vif, chronique d’une taxidermie contemporaine, Paris, La Martinière, 2014
;
. Péquignot, « Les spécimens naturalisés, la restauration des témoins historiques de la taxidermie », Coré, n°9, Nov. 2000, pp. 53-57.
| 7,775
|
26/tel.archives-ouvertes.fr-tel-00259691-document.txt_14
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,256
| 12,350
|
Après 20 minutes d'incubation à température ambiante et à l'obscurité, 3 μL de solution de charge (20 mM BisTrisBorate pH 7.4, 3mM MgCl2, 10μM NiCl2, 32% glycérol, 0.02% en bleu de bromophénol) sont ajoutés. Pendant les temps de préparation des échantillons, un pré-run des gels est fait afin d'équilibrer le système (gel et tampon). 10 μL de l'échantillon sont déposés sur un gel d'électrophorèse en polyacrylamide contenant 10 μM de NiCl2 (les pourcentages d'acrylamide testés vont de 6 à 10%). En parallèle des marqueurs protéiques de poids connu sont déposés. Une calibration des variations de déplacement des complexes en fonction du pourcentage du gel est alors possible ; ces variations sont reliées au poids apparent des complexes. Le gel migre en chambre froide (4°C), à l'obscurité avec un voltage imposé de 134 V dans du BisTris/HCl Borate 20 mM pH 7.4, NiCl2 10μM. Après migration, une photo du gel (Gel Doc 2000 Biorad) est prise afin de connaître le niveau de migration du bleu de bromophénol (BBP). Dans un second temps, une photo au fluorimager du gel est réalisée afin de visualiser l'ADN fluorescent libre et lié. Enfin le gel est coloré au bleu de coomassie, afin de mettre en évidence les marqueurs protéiques déposés. Une troisième photo est réalisée afin de connaître leur niveau de migration.
VII.12.3.3. Liaison d'HpNikR sur pureA, pnixA, pNiFu et pnikRS2
Ces expériences d'EMSA ont été réalisées afin de vérifier si HpNikR se lie sur les séquences d'ADN choisies pour nos études et les essais cristallographiques. La réaction de complexation a lieu dans un volume réaction de 10 μL. L'ordre des ajouts du matériel biologique est important. 0 μM à 100 μM de HpNikR sont mis en présence de 100 nM de promoteur-Fl. La complexation débute après ajout du tampon 20 mM BisTrisBorate pH7.4, 50 mM KCl, 3 mM MgCl2, 2,5% Glycérol, 100 μM NiCl2. Après 20 minutes - 345 - Matériel & Méthodes d'incubation à température ambiante et à l'obscurité, 3 μL de solution de charge (20 mM BisTrisBorate pH 7.4, 3mM MgCl2, 32% glycérol,) sont ajoutés. 10 μL de l'échantillon sont déposés sur un gel d'électrophorèse à 7 % de polyacrylamide contenant 100 μM de NiCl2. En parallèle des marqueurs protéiques de poids connu sont déposés. Le gel migre en chambre froide, à l'obscurité avec un voltage imposé de 134 V dans du 20 mM BisTrisBorate pH 7.4, 100μM NiCl2. VII.12.4. Retard sur gel : Radioactivité VII.12.4.1. Marquage des duplex oligonucléotidiques
Les duplex oligonucléotidiques froids sont préparés comme en VII.12.3.1. Une picomole des duplex est marquée avec de l'ATP-γ32P dans un volume réactionnel de 30 μL. Les conditions opératoires sont les suivantes : • • • • • 1 μL de duplex à 1μM 6 μL de Tampon 5x "forward reaction" (350 mM Tris/HCl pH7.6, 50mM MgCl2, 500 mM KCl, 5mM 2-mercapthoethanol) (Invitrogen) 21 μL d'eau mQ 1 μL d'ATP-γ32P (Amersham Bioscience) 1 μL de T4 Polynucleotide Kinase (Invitrogen) Après homogénéisation, l'échantillon est incubé pendant 30 minutes à 37°C. L'ATP-γ32P libre est séparé du duplex chaud par échange sur une μbiospin G25 (GE Healthcare). La concentration théorique du duplex marqué est de 33 nM. Le duplex est conservé à 4°C pendant 2 semaines.
VII.12.4.2. Liaison à l'ADN d'HpNikR
La liaison d'HpNikR sur différentes séquences d'ADN a été testée en gel retard afin de déterminer l'affinité du complexe HpNikR-métal pour ces duplex. La liaison sur les duplex suivants a été testée :
• pnikR box (43pb) (boîte prédite de liaison) 5'CATACTAGCATGAGCGGCTTTTAACGAACTCATGCCAAAAAAG 3' 3'GTATGATCGTACTCGCCGAAAATTGCTTGAGTACGGTTTTTTC 5' - 346 - Matériel & Méthodes • pureA (40 et 32 pb) 5'GCAAAGATATAACACTAATTCATTTTAAATAATAATTAGG 3' 3'CGTTTCTATATTGTGATTAAGTAAAATTTATTATTAATCC 5' 5'ATATAACACTAATTCATTTTAAATAATAATTA 3 3'TATATTGTGATTAAGTAAAATTTATTATTAAT 5' • pnixA (43, 34 et 32 pb) 5'GGCAAAATATATTACAATTACCAAAAAAGTATTATTTTTCTGG 3' 3'CCGTTTTATATAATGTTAATGGTTTTTTCATAATAAAAAGACC 5' 5'ATATATTACAATTACCAAAAAAGTATTATTTT 3' 3'TATATAATGTTAATGGTTTTTTCATAATAAAA 5' • pnifu (47pb) Fl-5'CCTTTAAATCCAGTTTGTATTATAATTGTTCATTTTAAATTAATTCC 3' 3'GGAAATTTAGGTCAAACATAATATTAACAAGTAAAATTTAATTAAGG 5' • pnikRS2 (44pb) Fl-5'GGTATTGACTTGTTATTATTAAAACAATATAATCAACAAACCGG 3' 3'CCATAACTGAACAATAATAATTTTGTTATATTAGTTGTTTGGCC 5'
Les bases soulignées ne sont pas spécifiques et ont été ajoutées pour stabiliser le duplex, en gras sont précisés les domaines de liaison a priori (Contreras et al., 2003; Delany et al., 2005; Ernst et al., 2006). Les conditions de complexation sont les suivantes : •
• 3 μL de protéine à « x » nM 3 μL Eau mQ 3 μL de duplex chaud à 2.5 nM ou 1.25 nM 3 μL dIdC à 7.5 ou 15 μg/ml (ADN compétiteur) 3 μL de tampon de complexation 5X (100 mM BisTrisBorate pH7.4, 250 mM KCl, 15mM MgCl2, 12.5% Glycérol, 0.5% Triton, 500μM Métal)
L'échantillon est incubé pendant 20 minutes à température ambiante, après quoi 3 μL de solution de charge à 40% en sucrose, 3mM MgCl2 et 0.02% en bleu de bromophénol sont ajoutés. Pendant les temps de préparation des échantillons, un pré-run des gels est fait afin d'équilibrer le système (gel et tampon). Deux heures après, une photo du film peut être faite un utilisant un phosphorimager (Molecular Imager FXTM Pro Plus, Biorad). La quantification de liaison est faite par mesure de la densitométrie en utilisant un utilisant un GelDoc (Biorad).
VII.13. Test de protection à la nucléase VII.13.1. Principe
Le test à la nucléase permet de tester l'activité de liaison à l'ADN des protéines ; c'est-à-dire : tester la capacité des protéines purifiées NikR ou FUR métallées ou non à se lier ou non à l'ADN. Ce test nécessite un plasmide dans lequel a été insérée la séquence d'ADN que FUR ou NikR sont supposées lier. Cette séquence peut présenter naturellement un site de coupure à une enzyme de restriction. Dans le cas contraire un site doit être artificiellement créé en considérant les sites préexistant sur le plasmide. Selon les conditions testées, si la protéine ne lie pas à sa séquence, l'enzyme choisie va couper le plasmide à ses différents sites : natif(s) et artificiel. A l'inverse si la protéine est active et se lie à sa séquence d'ADN, l'enzyme ne pourra plus couper le plasmide au site créé. Un plasmide a été créé afin de tester la réactivité de EcNikR (pP342 : construction d'A. Rodrigue) et un second plasmide a été créé au cours de ce travail afin de tester la réactivité de HpNikR et de HpFUR (pHP2S). VII.13.2. Plasmide EcNikR : pP342
La liaison de EcNikR sur son promoteur pnikA est mesurée au travers de la protection d'un site de coupure, à l'enzyme de restriction PstI, introduit dans la séquence opératrice de nikA (Fauquant et al., 2006). Le plasmide pP342 de 2820 pb ne contient qu'un seul site de coupure à l'enzyme de restriction PstI. La digestion de ce plasmide par ScaI ou HinfI, enzymes qui présentent 1 ou 5 sites de coupure respectivement, a été utilisée pour estimer la liaison non spécifique à l'ADN. Le mélange réactionnel de 20 μL comprend 20 μM de EcNikR, 200 ng de plasmide dans du tampon 20 mM Tris/HCl pH 8, 100 mM KCl, 3 mM MgCl2, 5% glycérol avec des quantités croissantes de NiCl2. Une incubation de 25 minutes à 20°C est requise. - 348 - Matériel & Méthodes Après quoi 1 unité de PstI et/ou ScaI ou HinfI est ajoutée au milieu réactionnel, une seconde incubation d'une heure a lieu à température ambiante. Le produit de la digestion est déposé sur un gel d'agarose de 0.8% ; après migration le gel est coloré au BET.
VII.13.3. Plasmide HpNikR et HpFUR : pHP2S
La liaison d'HpNikR et d'HpFUR sur la région intergénique est mesurée au travers de la protection de multiples sites de coupure, aux enzymes de restriction BsrBI, HinfI, SspI et PsiI. La carte du plasmide pHP2S de 3003 pb est présentée ci-après.
Figure VII.9 Carte du plasmide pHP2S sur laquelle est précisée la zone d'insertion de la région intergénique entre les sites HindIII et BamHI ainsi que les sites de coupures des enzym
d'intérêts. En théorie, HpNikR doit assurer la protection du site de coupure de SspI à 604pb (site nikRS2), du site de coupure PsiI à 507pb (site NiFu). L'absence de liaison sur le motif prédit par Contreras et al. sera vérifiée par la non protection du site de coupure de BsrBI à 466pb. Afin de vérifier la spécificité de liaison d'HpNikR sur ces motifs, l'absence de liaison sur les sites de coupures de HinfI, BamHI sera testée. HpFUR doit assurer la protection la protection du site de coupure de HinfI à 555pb (site furS2), du site de coupure PsiI à 507pb (site NiFu). Afin de vérifier la spécificité de liaison d'HpFUR sur ces motifs et l'absence de polymérisation de la protéine sur l'ADN, l'absence de liaison sur les sites de coupures de SspI sera testée. Les bandes pouvant être observées après digestion par les enzymes sont répertoriées dans le tableau ci-après
Site testé furS2 nikRS2 nikRS2 nikRS2/NiFu NiFu nikR box Enzyme HinfI SspI SspI/BamHI SspI/PsiI PsiI/BamHI BsrBI Bandes si aucune protection 1547 517 403 396 (75 et 65 non vus) 2216 787 2074 787 (142 non vu) 2216 690 (97 non vu) 2764 239 1801 612 349 241 3003 1801 961 241 (Régulateur inactif) Bandes si protection spécifique (Régulateur actif) 1950 517 396 (75 et 65 non vus) -3003 si SspI et PsiI) 3003 2074 929 -2216 787 si PsiI -2313 690 si SspI
Tableau VII-1 Taille des bandes obtenues après digestion par les enzymes de restriction en absence et en présence de
de l'ADN par HpNikR et HpFUR. Les premières conditions expérimentales dérivant des conditions de gel retard ont été testées pour étudier la liaison d'HpNikR et HpFUR sur la région intergénique. Le mélange réactionnel de 10 μL comprend entre 2 à 5μM de protéine, 20 nM de plasmide dans du tampon 20mM BisTrisBorate pH7.4, 50 mM KCl, 3mM MgCl2 avec des quantités variables de métal (Ni(II) et/ou Mn(II). Une incubation de 20 minutes à température ambiante est faite. Après quoi 3 unités d'enzyme sont ajoutées au milieu réactionnel, une seconde incubation de 30-40 minutes à 37°C a lieu. La réaction est stoppée en ajoutant le bleu de charge qui comprend 10% de glycérol (Concentration finale).Le produit de la digestion est déposé sur un gel d'agarose de 1.5%, après migration le gel est coloré au BET. En fonction de la concentration initiale de l'enzyme, soit une dilution au préalable dans le tampon réactionnel sans métal est réalisée afin de diminuer la concentration en EDTA et DTT, soit un échange de tampon sur une Micro Bio-Spin® 6 (Biorad) est réalisé à la dernière minute pour changer son tampon. Cette dernière technique tend à altérer l'activité de l'enzyme. Un second protocole a été mis en place afin de mesurer nettement la liaison d'HpFUR sur la région intergénique en tenant compte des conditions mises au point pour mesurer la liaison d'EcFUR sur le pDT10 (Pecqueur, 2005). Le mélange réactionnel de 10 μL (avant digestion) comprend entre 5μM d'HpFUR, 10 nM de plasmide dans du tampon 100mM BisTrisPropane pH7.5, 100 mM KCl, 5mM MgCl2. Une incubation de 30 minutes à température ambiante est faite. La protéine, selon la condition - Matériel & Méthodes testée, est ou non métallée au préalable. Le temps d'équilibration pendant la phase de métallation est de 30 minutes à température ambiante. Quatre unités d'enzyme sont ensuite ajoutées au milieu réactionnel, une seconde incubation d'une heure à 37°C a lieu. La nucléase est ensuite inactivée pendant 20 minutes à 80°C. Le produit de la digestion est ensuite digéré par de la trypsine à 0.25μM (rapport enzyme/substrat : 1/20) pendant 2 heures à 37°C pour se soustraire de l'agrégation de la protéine à l'ADN et de ce fait se soustraire de smear. Le produit de la double digestion est déposé sur un gel d'agarose de 0.8%, après migration le gel est coloré au BET. VII.14. Cristallisation HpNikR:nixA et HpNikR:ureA
Les essais de cristallisation ont été faits sur les duplex oligonucléotidiques de 32 pb de ureA et de nixA présentés en VII.12.4.2 et sur des duplex de 34pb. HpNikR à 140μM a été métallée avec 1 eq de Ni(II) par sous unité dans du 20mM Tris/HCl pH 7.4, 200mM NaCl. La protéine a ensuite été concentrée sur un Ultrafree de 4mL pour obtenir une concentration proche de 10mg/mL (583μM). Afin de former des complexes NiProtéine:ADN, 160μM d'HpNikR-Ni (concentration par sous unité) ont été mis en présence de 40μM de duplex. Différentes conditions de cristallisation ont été appliquées, seules 4 ont permis l'obtention de cristaux qui se sont avérés être des cristaux de protéine apo sans ADN. • 100mM AcONa pH 4.6, 2.0 M NaF
.
• 100mM HEPES pH7.5, 10 % Isopropanol
, 20
%
PEG 4000. • 50mM KH2PO4, 20 % PEG 8000. • 100mM trisodium Citrate pH 5.6, 1.0 M NH
4H2PO4 VII.15. D'autres techniques ont été utilisées, entre autres pour les mesures de cinétique rapide, la détermination du coefficient d'extinction molaire du
complexe EcNikR
-
Ni(II
), et le suivi de la précipitation
d'EcNikR.
Ces différents protocoles
sont présentés dans (Diederix et al., soumis à publication; Fauquant et al., 2006). VII.16. Références
Blokesch, M., Rohrmoser, M., Rode, S. & Bock, A. (2004). HybF, a zinc-containing protein involved in NiFe hydrogenase maturation. J Bacteriol 186, 2603-2611. Chivers, P. T. & Sauer, R. T. (2000). Regulation of high affinity nickel uptake in bacteria. Ni2+-Dependent interaction of NikR with wild-type and mutant operator sites. J Biol Chem 275, 19735-19741. Contreras, M., Thiberge, J. M., Mandrand-Berthelot, M. A. & Labigne, A. (2003). Characterization of the roles of NikR, a nickel-responsive pleiotropic autoregulator of Helicobacter pylori. Mol Microbiol 49, 947-963. De Pina, K., Desjardin, V., Mandrand-Berthelot, M. A., Giordano, G. & Wu, L. F. (1999). Isolation and characterization of the nikR gene encoding a nickel-responsive regulator in Escherichia coli. J Bacteriol 181, 670-674. Delany, I., Ieva, R., Soragni, A., Hilleringmann, M., Rappuoli, R. & Scarlato, V. (2005). In vitro analysis of protein-operator interactions of the NikR and fur metal-responsive regulators of coregulated genes in Helicobacter pylori. J Bacteriol 187, 7703-7715. Dian, C., Schauer, K., Kapp, U., McSweeney, S. M., Labigne, A. & Terradot, L. (2006). Structural basis of the nickel response in Helicobacter pylori: crystal structures of HpNikR in Apo and nickel-bound states. J Mol Biol 361, 715-730. Diederix, R. E., Fauquant, C., Rodrigue, A., Mandrand-Berthelot, M. A. & Michaud-Soret, I. (soumis à publication). Sub-micromolar affinity of Escherichia coli NikR for Ni(II). Ernst, F. D. Stoof, J., Horrevoets, W. M., Kuipers, E. J., Kusters, J. G. & van Vliet, A. H. (2006). NikR mediates nickel-responsive transcriptional repression of the Helicobacter pylori outer membrane proteins FecA3 (HP1400) and FrpB4 (HP1512). Infect Immun 74, 6821-6828. Fauquant, C., Diederix, R. E., Rodrigue, A., Dian, C., Kapp, U., Terradot, L., Mandrand-Berthelot, M. A. & Michaud-Soret, I. (2006). pH dependent Ni(II) binding and aggregation of Escherichia coli and Helicobacter pylori NikR. Biochimie 88, 1693-1705. Ferguson, K. A. (1964). Starch-Gel Electrophoresis--Application to the Classification of Pituitary Proteins and Polypeptides. Metabolism 13, SUPPL:985-1002. Kuzmic, P. (1996). Program DYNAFIT for the analysis of enzyme kinetic data: application to HIV proteinase. Anal Biochem 237, 260-273. McCall, K. A. & Fierke, C. A. (2000). Colorimetric and fluorimetric assays to quantitate micromolar concentrations of transition metals. Anal Biochem 284, 307-315. Orchard, K. & May, G. E. (1993). An EMSA-based method for determining the molecular weight of a protein-DNA complex. Nucleic Acids Res 21, 3335-3336. Pecqueur, L. (2005). Uversky, V. N., Winter, S. & Lober, G. (1998). Self-association of 8-anilino-1-naphthalene-sulfonate molecules: spectroscopic characterization and application to the investigation of protein folding. Biochim Biophys Acta 1388, 133-142. Wang, Y., Hemmingsen, L. & Giedroc, D. P. (2005). Structural and functional characterization of Mycobacterium tuberculosis CmtR, a PbII/CdII-sensing SmtB/ArsR metalloregulatory repressor. Biochemistry 44, 8976-8988. Wang, Z., Schmitt, M. P. & Holmes, R. K. (1994). Characterization of mutations that inactivate the diphtheria toxin repressor gene (dtxR). Infect Immun 62, 1600-1608.
- 353 - Matériel & Méthodes - 354 - Annexes Annexes - 355 - Annexes - 356 - Annexes Annexe A : Matériel supplémentaire de la communication
Supporting Material belonging to: Sub-micromolar affinity of Escherichia coli NikR for Ni(II) Rutger E.M. Diederix, Caroline Fauquant, Agnès Rodrigue, Marie-Andrée Mandrand-Berthelot, and Isabelle Michaud-Soret I. When NikR is in excess over Ni(II), no aggregates are present. Dynamic light scattering experiments were performed with wt NikR in the absence and presence of various Ni(II) concentrations (Figure S1). NikR was 20μM (20mM Hepes pH 8, 0.1 M NaCl). The experiments were recorded using a Zetasizer nanoS from Malvern Instruments using a 50μL quartz cuvette at 293K. NikR was allowed to incubate for 20 min with NiSO4 prior to the measurements. When NikR is in 10-fold or higher excess over Ni(II), no aggregation is observable (Fig. S1A). At higher concentration of Ni(II), aggregation is observed (Fig. S1B), but this disappears with . It can be concluded that under the conditions of the UV/vis titrations as well as the Ni(II) binding kinetics experiments, Ni(II)-induced NikR aggregation does not play a role. A apo-NikR + 0.025 equiv NiSO4 + 0.05 equiv NiSO4 + 0.075 equiv NiSO4 + 0.10 equiv NiSO4 NikR tetramer 12 16 Intensity (%) Intensity (%) 16 aggregated species 8 0 0 100 1000 10000 1 Diameter (nm) NikR + 0.3 equiv NiSO4 after 25 min incubation aggregated species 8 4 10 NikR tetramer 12 4 1 B 10 100 1000 10000
Diameter (nm) Figure S1. Dynamic light scattering of NikR in the absence and presence of increasing Ni(II). A) A titration with Ni(II) up to 0.1 equivalent. Tetrameric NikR, corresponding to the species with diameter ~7.5 nm, is the major species present, representing 100, 91, 95, 95 and 87 respectively, of the total intensities of NikR with increasing Ni(II) concentration. B) NikR with 0.3 equivalent Ni(II). Initially all the protein is present in the form of large aggregates - 357 - Annexes II. Determining the KD with [NikR] >> [Ni(II)] by UV/vis titrations. Ni(II) titrations were performed with Q2E NikR in 20 mM Hepes pH 8.0, 0.1 M NaCl, 293 K. Q2E NikR concentrations used were 0.6, 0.94, 1.1, 1.5, 2, 3, 3.1, 6, 12.6, 60, 215, and 860 μM. The mixtures were allowed to equilibrate for at least 30 min after addition of the NiSO4 before UV/vis spectra were acquired. Depending on the protein concentration, cuvettes with optical path lengths of 0.1, 1 and 10 cm were used. The 'apparent extinction coefficient' was defined as the linear dependence of absorbance at 302 nm on [NiSO4] between 0 and 0.1 equivalents. The apparent extinction coefficient shows a hyperbolic dependence on [NikR], as justified below. NikR is a tetrameric protein, with 4 His3Cys sites capable of Ni(II)-binding with high affinity (HA sites). No co-operativity between the sites is present, as evidenced by linear Ni(II) binding curves [1]. If [Ni(II)] remains less than 10% of [NikR], we can consider independent binding of Ni(II) to each of the sites representing the macroscopic dissociation constant. For a simple binding equilibrium
Ni + NikR Ý NiNikR: KD = [NikR ]free ⋅ [Ni(II)]free [Ni − NikR ] (1) When [NikR]tot >> [Ni(II)]tot it follows that [NikR]free ≈ [NikR]tot and thus: [Ni(II)]free = [Ni(II)]tot – [Ni-NikR]
(2) Substitution
of eq. 2 in eq. 3,
and
subsequent rearrangement gives: [Ni − NikR
] = [Ni(II)]tot ⋅ [NikR ]tot (K D + [NikR]tot
) (3) The linear increase in absorbance with increasing Ni(II) concentration corresponds to the formation of NiNikR. The ratio [Ni-NikR]/
[
Ni(II
)]
tot
thus be equated to the ratio of this linear increase in absorbance (called apparent extinction coefficient) and the extinction coefficient: ε 302 (apparent) [Ni − NikR ] = [Ni(II)]tot ε 302 (4) Substitution into eq. 3 and subsequent rearrangement gives the hyperbolic relationship (eq. 5): ε 302 (apparent) = ε 302 ⋅ [N
ikR
]tot
(
K d
+
[NikR ]tot
) (5)
- Experimental details of the filter binding assays and fitting of the data. The filter binding assay data were analyzed using DynaFit [2]. We assumed independent binding to two categories of binding sites, each with a different affinity for Ni(II) [1]. The HA site is considered one category, while all other sites that are rapidly depleted by EDTA are considered the second category (low affinity, LA sites). Only one HA site is present per NikR monomer, and, for sake of simplicity, we assumed only 3 LA sites, each with equal affinity for Ni(II). These represent the entirety of sites present on NikR capable of binding Ni(II). It was assumed that wt and Q2E NikR possess both HA and LA sites; EDTAwashed wt and Q2E NikR only HA sites, and Q2E/H89N NikR only LA sites. The data were fit independently and the resulting KD ́s averaged. The KD of the LA binding site was first determined using the data for Q2E/H89N NikR and this value used to fit the data for wt and Q2E NikR.
IV. Fitting of the Ni(II)-binding kinetics to NikR. Non-linear least-squares fitting of the stopped-flow traces to a single exponential gives imperfect fits, with clear deviations at the beginning of the reactions (i.e. evidence of a lag-phase). Also, the rate constants derived from this fitting display a hyperbolic dependence on [NikR]. Together, this can be taken as evidence of a mechanism of binding that involves an intermediate species and that the species giving the signal (i.e. absorbs at 302 nm) is the species that follows the intermediate in the reaction sequence [3, 4]. The most simple and likely reaction mechanism is a two-step binding mechanism. From a structural point of view, this is also likely; the HA, His3Cys site is situated in the interior of the protein, and the most direct route for Ni(II) ion to the HA site is through a cluster of His residues located on the surface. Thus, the most reasonable mechanism is the following, with only the third species absorbing at 302 nm:
k1 k2 Ni(II) + NikR Ý [Ni(II)•NikR] Ý k–1 k–2 Ni(His3Cys)NikR
The data sets were fit simultaneously, using DynaFit [2], assuming ε302 = 10,400 M-1cm-1 for NiNikR (this work). The model described above was used, with the following modification: the protein was assumed to be dimeric and to contain two sites, i.e. each Ni(II) is able to recognize two individual sites and bind accordingly. This was done in an attempt to take the tetrameric nature of NikR, with 4 HA sites, into account. Fitting using a model including all 4 sites requires simultaneous solution of 64 binding equilibria, which is too many for the Dynafit program. The validity of the simplification to assume dimeric NikR was confirmed by fitting using a more elaborate model assuming NikR is trimeric, and also assuming that NikR is tetrameric, that it cannot bind more than two Ni(II) in the HA site at any given time. The results from these fitting procedures are essentially the same (as shown in Section V, see below), confirming that simplification of the binding model is permitted. Also, simulation using the resulting kinetic parameters of the degree of binding of the sites in NikR, assuming tetrameric NikR, indicated that the fraction of NikR containing more than two bound Ni(II) is negligible under the conditions of the experiments. The kinetic constants obtained from this fit correspond well to analytical fitting of the curves (see below). The data were also fit analytically, using the following expression [3]:
⎤ ⎡ λ2 λ1 y = α ⎢1 + e −λ1t − e −λ2t ⎥ λ1 − λ2 ⎦
⎣ λ1 − λ2 (6) with α = amplitude, λ1 = rate constant of the slow phase and λ2 = rate constant of the fast phase, respectively. The dependent variable y is the baseline-corrected absorbance at 302 nm, which equates to the product ([NiNikR]*ε302). This expression was used for non-linear regression, one curve at a time. For a twostep mechanism, the parameters λ1, λ2 and α depend on the 4 rate constants of the reaction as follows [3]:
λ1 = k1[NikR ]( k2 + k− 2 ) + k−1k− 2 k1[NikR ] + k−1 + k2 + k− 2 (7) λ2 = k1 [NikR ] + k −1 + k 2 + k −2 α= (8) K1 K 2 [NikR ] 1 + K1 [NikR ] + K1 K 2 [NikR ] (9)
We found that the slow phase gave a hyperbolic dependence, whereas the fast phase showed too much scattering to be reasonably interpreted as a straight line. Direct fitting to eq. 7 yields (k2 + k-2) = 0.1064, in excellent agreement with the DynaFit results. At low [NikR] (<10 μM), the linear dependence of the slow phase on [NikR] has a slope k1(k2 + k-2)/(k-1 + k2 + k-2) and a y-axis cutoff = k-1k-2/(k-1 + k2 + k-2). Linear fitting at [NikR]<10 μM yields k1 = 16.9 (± 0.5) nM-1s-1 and k-1k-2/(k2 + k-2) 0.00513 (± 6.74*10-4). This is in good agreement with the values expected from the DynaFit fits (which yields the calculated values 18.8 and 0.00598 for the slope and cutoff, respectively). Simulation of the hyperbolic curve with the values obtained from DynaFit also gave excellent results. Unfortunately, the hyperbolic curve cannot be fit independently, as the kinetic constants are too interdependent (as we cannot use extra information deriving from the fast phase, λ2). V. The applied Dynafit models
Model I: NikR as a dimer. Each of both HA sites binds Ni(II) individually, through an intermediate. This results in 8 equilibria between 8 NikR species. The Ni(II) sites are named with arabic numerals. When the Ni(II) is bound to the (spectroscopically silent) intermediate, the letters Ni1 or Ni2 follow the letter P, and when bound to the final site, the letters Ni1 or Ni2 precede the letter P.
P + Ni <===> PNi1 P + Ni <===> PNi2 PNi1 <===> Ni1P PNi2 <===> Ni2P Ni1P + Ni <===> Ni1PNi2 Ni2P + Ni <===> Ni2PNi1 Ni2PNi1 <===> Ni1Ni2P Ni1PNi2 <===> Ni1Ni2P - 360 - k1 k1 k2 k2 k1 k1 k2 k2 k-1 k-1 k-2 k-2 k-1 k-1 k-2 k-2
Annexes Model II: NikR as a trimer. Each of the 3 HA sites binds Ni(II) individually, through an intermediate. This results in 24 equilibria between 20 NikR species. Naming of the species is analogous to above.
P + Ni <===> PNi1 P + Ni <===> PNi2 P + Ni <===> PNi
3
PN
i1 <===> Ni1P PNi2 <===> Ni2P PNi3 <===> Ni3P Ni1P + Ni <===> Ni1PNi2 Ni1P + Ni <===> Ni1PNi3 Ni2P + Ni <===> Ni2PNi1 Ni2P + Ni <===> Ni2PNi3 Ni3P + Ni <===> Ni3PNi1 Ni3P + Ni <===> Ni3PNi2 Ni1PNi2 <===> Ni1Ni2P Ni1PNi3 <===> Ni1Ni3P Ni2PNi1 <===> Ni1Ni2P Ni2PNi3 <===> Ni2Ni3P Ni3PNi1 <===> Ni1Ni3P Ni3PNi2 <===> Ni2Ni3P Ni1Ni2P + Ni <===> Ni1Ni2PNi3 Ni1Ni3P + Ni <===> Ni1Ni3PNi2 Ni2Ni3P + Ni <===> Ni2Ni3PNi1 Ni1Ni2PNi3 <===> Ni1Ni2Ni3P Ni1Ni3PNi2 <===> Ni1Ni2Ni3P Ni2Ni3PNi1 <===> Ni1Ni2Ni3P k1 k1 k1 k2 k2 k2 k1 k1 k1 k1 k1 k1 k2 k2 k2 k2 k2 k2 k1 k1 k1 k2 k2 k2 k-1 k-1 k-1 k-2 k-2 k-2 k-1 k-1 k-1 k-1 k-1 k-1 k-2 k-2 k-2 k-2 k-2 k-2 k-1 k-1 k-1 k-2 k
Model III: NikR as a tetramer. Each of the 4 HA sites binds Ni(II) individually, through an intermediate. This results in 64 equilibria between 48 NikR species. Naming of the species is analogous to above. Because the maximum number of equilibria allowed by the Dynafit fitting program is 50, it was necessary to simplify the mechanism. For this reason, the final 20 equilibria (indicated in red) were not used. The species involved in these equilibria contain three or more Ni(II) bound to the HA site, and are expected to be present at any given time in very low quantities under the conditions of the experiment (i.e. with an 10-fold excess or more of HA sites over Ni(II)). Simulations of the progress of the species with time, using the kinetic constants derived earlier are shown in Figure S2, below. Indeed, the percentage of signal at 302 nm derived from NikR containing only a single Ni(II) bound to the HA site is never lower than 85%, and the percentage of NikR tetramers containing more than two Ni(II) ions bound is negligible. P + Ni <===> PNi1 P + Ni <===> PNi2 P + Ni <===> PNi3 P + Ni <===> PNi4 PNi1 <===> Ni1P PNi2 <===> Ni2P PNi3 <===> Ni3P PNi4 <===> Ni4P Ni1P + Ni <===> Ni1PNi2 Ni1P + Ni <===> Ni1PNi3 Ni1P + Ni <===> Ni1PNi4 Ni2P + Ni <===> Ni2PNi1 Ni2P + Ni <===> Ni2PNi3 - 361 - k1 k1 k1 k1 k2 k2 k2 k2 k1 k1 k1 k1 k1 k-1 k-1 k-1 k-1 -1
Annexes
Ni2P + Ni <===> Ni2PNi4 Ni3P + Ni <===> Ni3PNi1 Ni3P + Ni <===> Ni3PNi2 Ni3P + Ni <===> Ni3PNi4 Ni4P + Ni <===> Ni4PNi1 Ni4P + Ni <===> Ni4PNi2 Ni4P + Ni <===> Ni4PNi3 Ni1PNi2 <===> Ni1Ni2P Ni1PNi3 <===> Ni1Ni3P Ni1PNi4 <===> Ni1Ni4P Ni2PNi1 <===> Ni1Ni2P Ni2PNi3 <===> Ni2Ni3P Ni2PNi4 <===> Ni2Ni4P Ni3PNi1 <===> Ni1Ni3P Ni3PNi2 <===> Ni2Ni3P Ni3PNi4 <===> Ni3Ni4P Ni4PNi1 <===> Ni1Ni4P Ni4PNi2 <===> Ni2Ni4P Ni4PNi3 <===> Ni3Ni4P Ni1Ni2P + Ni <===> Ni1Ni2PNi3 Ni1Ni2P + Ni <===> Ni1Ni2PNi4 Ni1Ni3P + Ni <===> Ni1Ni3PNi2 Ni1Ni3P + Ni <===> Ni1Ni3PNi Ni1Ni4P + Ni <===> Ni1Ni4PNi2 Ni1Ni4P + Ni <===> Ni1Ni4PNi3 Ni2Ni3P + Ni <===> Ni2Ni3PNi1 Ni2Ni3P + Ni <===> Ni2Ni3PNi4 Ni2Ni4P + Ni <===> Ni2Ni4PNi1 Ni2Ni4P + Ni <===> Ni2Ni4PNi3 Ni3Ni4P + Ni <===> Ni3Ni4PNi1 Ni3Ni4P + Ni <===> Ni3Ni4PNi2 Ni1Ni2PNi3 <===> Ni1Ni2Ni3P Ni1Ni2PNi4 <===> Ni1Ni2Ni4P Ni1Ni3PNi2 <===> Ni1Ni2Ni3P Ni1Ni3PNi4 <===> Ni1Ni3Ni4P Ni1Ni4PNi2 <===> Ni1Ni2Ni4P Ni1Ni4PNi3 <===> Ni1Ni3Ni4P Ni2Ni3PNi1 <===> Ni1Ni2Ni3P Ni2Ni3PNi4 <===> Ni2Ni3Ni4P Ni2Ni4PNi1 <===> Ni1Ni2Ni4P Ni2Ni4PNi3 <===> Ni2Ni3Ni4P Ni3Ni4PNi1 <===> Ni1Ni3Ni4P Ni3Ni4PNi2 <===> Ni2Ni3Ni4P Ni1Ni2Ni3P + Ni <===> Ni1Ni2Ni3PNi4 Ni1Ni2Ni4P + Ni <===> Ni1Ni2Ni4PNi3 Ni1Ni3Ni4P + Ni <===> Ni1Ni3Ni4PNi2 Ni2Ni3Ni4P + Ni <===> Ni2Ni3Ni4PNi1 Ni1Ni2Ni3PNi4 <===> Ni1Ni2Ni3Ni4P Ni1Ni2Ni4PNi3 <===> Ni1Ni2Ni3Ni4P Ni1Ni3Ni4PNi2 <===> Ni1Ni2Ni3Ni4P Ni2Ni3Ni4PNi1 <===> Ni1Ni2Ni3Ni4P 1 1 k1 k1 k1 k1 k1 k1 k1 k2 k2 k2 k2 k2 k2 k2 k2 k2 k2 k2 k2 k1 k1 k1 k1 k2 k2 k2 k2 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-1 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-2 k-1 k-1 k-1 k-1 k-2 k-2 k-2 k-2 A100 % of species of total species with absorbance at 302 nm % of species of total species with absorbance at 302 nm Annexes 10 1 0.1 0.01 1E-3 0 10 20 30 40 50 B100 60 10 NimP NimPNin 1 NimNinP NimNinPNio 0.1 0.01 1E-3 0 time (s) 10 20 30 40 50 60 time (s)
Figure S2. k1 (104 M-1s-1) k-1 (s-1) k2 (s-1) k-2 (s-1) Model I 3.65 ± 0.46 0.095 ± 0.015 0.088 ± 0.016 0.0123 ± 0.0012 Model II 4.56 ± 0.94 0.091 ± 0.005 0.088 ± 0.011 0.0139 ± 0.0011 Model III 4.39 ± 0.42 0.110 ± 0.004 0.088 ± 0.002 0.0117 ± 0.0011 4 -1 -1 -1 kon (10 M s ) koff (s ) KD (M) Sum of squares Model I 1.76 0.0064 0.363 1.11*10-7 Model II 2.24 0.0071 0.316 1.45*10-7 Model III 2.24 0.0068 0.334 1.98*10-7
VI References (1) Fauquant C, Diederix REM, Rodrigue A, Dian C, Kapp U, Terradot L, Mandrand-Berthelot MA, Michaud-Soret I (2006) Biochimie 88: 1693-1705. (2) Kuzmic P (1996) Anal Biochem 237: 260-273. (3) Johnson KA (1986) Meth Enzymol 134: 677-705. (4) Halford SE (1975) Biochem J 149: 411-422. Annexes Annexe B : Modèles appliqués pour l'ajustement des données Modèle simple
Ce modèle a été employé dans deux situations, soit pour déterminer le Kd apparent d'un site métallique présent dans une sous unité monomérique soit pour déterminer le Kd apparent d'un complexe Protéine métallée/ADN. Dans cette seconde condition cela implique que la protéine soit 100% métallée. Le modèle est le suivant : [A]libre + [B]libre ↔ [AB] A l'équilibre D'après la loi d'action des masses : [A]libre × [B]libre × k1 = k2 × [AB ] [A]libre × [B]libre Kd = [AB] soit [A]libre = ⎡⎢⎣A ⎤⎥⎦ Tot − ⎡⎢⎣ AB⎤⎥⎦ on a équation 1 et [B ]libre = ⎡⎢⎣ B⎤⎥⎦ Tot − ⎡⎢⎣ AB⎤⎥⎦ alors l'équation 1 devient : Kd = (
([
A]Tot − [AB])
×
([B]Tot − [AB])) [AB] équation 2 On développant l'équation 2, on obtient : 0 = [AB]2 + [AB]× (− Kd − [A ]Tot − [B]Tot ) + ([A ]Tot × [B]Tot ) équation 3 qui équivaut à résoudre une équation quadratique : 0 = ax2+bx+c dont la solution est x = − b ± b 2 − 4ac 2a où dans notre situation x = [AB], a = 1, b = (-Kd-[A]Tot-[B]Tot) et c = ([A]Tot*[B]Tot) La solution de l'équation 3 est : [
AB] = − (- Kd − [A]Tot − [B]Tot ) − (-Kd - [A]To - [B]Tot) 2 - 4 × ([A ]Tot × [B]Tot ) 2
Ici on connaît [A]Tot, [B]Tot et l'on mesure [AB]. Modèle de Hill Ce modèle a été employé par défaut quand le modèle simple ne permettait pas d'ajuster les données. Son application est parfois abusive mais traduit une complexité dans les mécanismes de liaison. Théoriquement un tel modèle permet de rendre compte avec son coefficient de Hill « n » de la coopérativité de liaison d'un ligand à un composé donné, si : n > 1 - Réaction de coopérativité positive n < 1 - Réaction de coopérativité négative n = 1 - absence de coopérativité L'équation utilisée est la suivante : [
AB
] =
[AB]max × [A]n libre [Kd]n + [A]n libre
où [AB]max est égal
à
[
B
]
Tot (facteur limitant
).
Généralement [A]libre est assimilé à [A]Tot lorsque [A] >> [B].
- 365 - Annexes Annexe C : Liaison d'HpNikR sur NiFu et nikRS2 mesurée par EMSA Liaison
sur NiFu et nikRS2 en absence de sel métallique dans le tampon de migration : Figure C.1 Liaison d'HpNikR à l'ADN (NiFu _ nikRS2) en absence de sel métallique dans le tampon de de migration. HpNikR (0 et 500 nM) incube avec 500pM d'ADN en présence de dIdC à 1.5μg/mL pendant 20 minutes dans le tampon de complexation (20mM BisTris Borate pH7.4, 50mM KCl, 3mM MgCl2, 2.5% Glycérol, 0.1% Triton et aucun sel ou 100μM de Ni(II)). Les complexes réactionnels ont migré dans un gel d'acrylamide à 8%. Le gel et le tampon de migration (100m
M BisTris Borate pH7.4) contenaient du NiCl2 à 100μM. Une perte moyenne de 10% de la radioactivité totale
est observée. Liaison sur NiFu et nikRS2 en présence de 100μM de Ni(II) dans le tampon de migration : Figure
C
.2 Liaison d'
HpNikR
à
l'ADN (NiFu _ nikRS2)
en présen
ce d'un excès de Ni(II) dans le tampon de de migration.
Hp
N
ik
R (0 et 500 nM) incube avec 500pM d'ADN en présence de dIdC à 1.5μg/mL pendant 20 minutes dans le tampon de complexation (20mM BisTris Borate pH7.4, 50mM KCl, 3mM MgCl2, 2.5% Glycérol, 0.1% Triton et aucun sel ou 100μM de Ni(II) ou Mn(II)). Les complexes réactionnels ont migré dans un gel d'acrylamide à 8%. Le gel et le tampon de migration (100mM BisTris Borate pH7.4) contenaient du NiCl2 à 100μM. Une perte moyenne de 10% de la radioactivité totale est observée.
Li
aison
sur
NiFu et nikRS2 en présence de 3mM de Mg(II) dans le tampon de migration : Figure C.3 Liaison d'HpNikR à l'ADN (NiFu _ nikRS2) en présence d'un excès de Mg(II) dans le tampon de de migration. HpNikR (0, 5, 10, 20, 50, 100, 200, 300, 500 et 1000nM) incube avec 500pM d'ADN en présence de dIdC à 1.5μg/mL pendant 20 minutes dans le tampon de complexation (20mM BisTris Borate pH7.4, 50mM KCl, 3mM MgCl2, 2.5% Glycérol, 0.1% Triton et aucun sel ou 100μM de Ni(II) ou
M
n(II
)
).
Les complexes réactionnels ont migré dans un gel d'acrylamide à 8%. Le gel et le tampon de migration (100mM BisTris Borate pH7.4) contenaient du NiCl2 à 100μM
.
Une perte moyenne de
10%
de
radioactivité totale est observée. Propriétés de métallation et de liaison à l'ADN de NikR d'Escherichia coli et de NikR et FUR d'Helicobacter pylori
Les facteurs de transcription NikR et FUR sont impliqués dans l'homéostasie des métaux. Les propriétés de métallation et de liaison à l'ADN de NikR d'E.coli (Ec) et d'H.pylori (Hp) ont été comparées. EcNikR, protéine tétramérique, lie 8 nickels par sous unité dont un nickel dans un site dit de haute affinité ayant un Kd submicromolaire. Les autres sites métalliques, de plus basse affinité, sont impliqués dans le processus d'agrégation Ni- et pH-dépendant. HpNikR, partage des propriétés de métallation avec EcNikR, dont la liaison possible de différents métaux dans son site de haute affinité (Cu(II), Ni(II), Co(II)). Les 4 sites de haute affinité de cette protéine semblent égaux 2 à 2. La métallation des premiers sites faciliterait une « fermeture de la protéine » permettant la métallation des deux derniers sites. La métallation de ces 4 sites semble suffire pour qu'HpNikR puisse lier l'ADN. Cependant cette liaison serait améliorée en présence d'un métal stabilisateur dans d'autres sites. Selon les séquences opératrices, le métal et la technique employée, l'affinité d'HpNikR métallée pour l'ADN varie. En présence d'un excès de Ni(II), HpNikR se lie à pureA et à pnixA avec un Kd de 2,5 et 1,7 nM mais se lie faiblement à pnikR et pexbB. En présence d'un excès de Ni(II) puis de Mn(II), HpNikR se lie à pnikR et à pexbB avec un Kd de 38 et 24 nM. FUR d'H.pylori (HpFUR), un métallorégulateur Fedépendant, a aussi été caractérisé dans le but d'étudier sa co-régulation avec HpNikR de la région intergénique nikR-exbB. HpFUR est dimérique et contient au moins deux sites métalliques : un site structural et un site de régulation permettant l'activation pour la liaison à l'ADN. Mots Clés: Métallorégulateur, NikR, FUR, Escherichia coli, Helicobacter pylori, nickel, fer, homéostasie, spectroscopie, affinité, dichroïsme circulaire, interaction ADN/Protéine.
| 6,253
|
2006ENSL0361_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,006
|
Simulation ab initio de nano-agrégats métalliques supportés
|
None
|
French
|
Spoken
| 6,574
| 10,977
|
Simulation ab initio de nano-agrégats métalliques supportés
Manuel Corral Valero To cite this version: Manuel Corral Valero. Simulation ab initio de nano-agrégats métalliques supportés. Matériaux. Ecole normale supérieure de lyon ENS LYON, 2006. Français. NNT :. tel-00091925 HAL Id: tel-00091925 https://theses.hal.science/tel-00091925 Submitted on 7 Sep 2006 HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. No d’ordre 361 No attribué par la bibliothèque : 06ENSL0 361 THESE en vue d’obtenir le grade de Docteur de l’École Normale Supérieure de Lyon spécialité : Chimie Laboratoire de Chimie école doctorale de : Chimie présentée et soutenue publiquement le 12/07/2006
par Monsieur Manuel CORRAL VALERO Titre : Simulation ab initio de nano-agrégats métalliques supportés
Directeur de Thèse : Philippe Sautet Après avis de : Monsieur Francesc ILLAS, Membre/Rapporteur Monsieur Jean-François PAUL, Membre/Rapporteur Devant la Commission d’examen
formée de
:
Monsieur Francesc ILLAS, Membre
/
Rapporteur Monsieur Philippe MARCUS, Membre Monsieur Jean-François PAUL, Membre
/
Rapporteur Monsieur Pascal RAYBAUD,
Membre Monsieur
Philippe Sautet,
Membre 2 Table des matières Remerciements 7 Introduction 9 1 Contexte bibliographique 13
1.1
Les différents modèles et poly
morph
es d’Al2 O3
............
13 1.2 Influence du protocole de synthèse.
.................. 15 1.3 Effet de taille.............................. 17 1.4 Effet de support............................. 18 1.5 Hydroxylation des surfaces....................... 23 1.6 Nucléation et morphologie de la phase supportée........... 24 1.7 Conclusion............................... 25 2 Méthodologie 27 2.1 Introduction............................... 27 2.2 Théorie de la Fonctionnelle de la Densité Électronique........ 30 2.3 Bases, périodicité et pseudopotentiels................. 34 3 2.4 L’optimisation de géométrie...................... 41 2.5 La dynamique moléculaire ab initio........
.......... 42 2.6
Le logiciel VASP............
................ 43
3
Le modèle d’alumine
gamma
45 3.1 Le modèle du Bulk........................... 45 3.2 Surfaces et taux d’hydroxylation.................... 48 3.3 Conclusion............................... 62 4 Adsorption d’un atome de Pd sur les surfaces de l’alumine 63 4.1 Introduction............................... 63 4.2 Methods................................. 65 4.3 Results.................................. 67 4.4 Conclusions................
............... 78 A. Construction des Surfaces d’Énergie Potentielle (SEP).......... 80 B. Analyse en dynamique moléculaire du Pd sur γ-Al2 O3 (110) hydratée..
86 5 Exploration des SEP pour des agrégats polyatomiques 93 5.1
Combinaison linéaire des surfaces d’énergie potentielle
........ 93 5.2 Calcul de la surface d’énergie potentielle de Pd4 /γ-Al2 O3 (100).... 96 5.3 Calcul de la combinaison linéaire de surfaces d’énergie potentielle pour Pd4 /γ-Al2 O3 (100)......................... 100
5.4 Détermination des sites
d’
ad
sorption par
exploration explicite de la SEP 106 6 Nucleation and growth of Pd clusters and wetting of Pd particles 4 113 6.1 Introduction............................... 113 6.2 Methods and models.......................... 114 6.3 Results.................................. 117 6.4 Conclusions............................... 134 7 Adsorption of CO and C2 H4 in Pd4 supported clusters 137 7.1 Introduction............................... 137 7.2 Methods................. ................ 138 7.3 Structure and energetics of CO and C2 H4 adsorption on Pd4 clusters. 139 7.4 Quantum Chemical Analysis of the Metal-Support Ineractions.... 153 7.5 Conclusions............................... 171 8 Recherches en cours et perspectives 173 Conclusion 179 Bibliographie 181 5 6
Toute thèse est le reflet du thésard qui l’écrit, de ses directeurs de thèse et d’un environment de travail particulier. Pendant ces trois années, j’ai travaillé dans deux grandes équipes. La page dédiée aux remerciements doit forcement être longue. J’aimerais remercier les personnes que j’ai rencontrées au Laboratoire de Chimie de l’ENS-Lyon. En particulier, Stéphanie Badiou et Christian Melkonian, qui m’ont beaucoup aidé à ne pas désespérer et à ne pas me lever tôt le matin pour rien. Les effets spéciaux de cette thèse n’auraient pas été possibles sans l’aide inestimable de Paul Fleurat-Lessard et de Vincent Krakoviack, les agents du bureau 007 qui, au service de sa majesté, aident tous les thésards du labo. Marie-Laure Bocquet me fournissait des articles et la drogue la plus importante pour réaliser une thèse, du café. Vincent Robert et David Loffreda étaient deux sources inépuisables d’idées et de conseils. Tous les trois m’ont beaucoup aidé à orienter le pendant et l’après-thèse. Et que dire de Françoise Delbecq, notre chef d’équipe! Grâce à sa touche personnelle d’informalité elle a fait en sorte que toutes nos réunions de groupe soient compatibles avec mon agenda. Merci. Je voudrais remercier d’une manière générale aux thésards et non permanents du labo, Céline, Jérôme, Hervé, Julien, Olivier, Shuangliang, Samir, Sabri, Rafael, Santiago David, Anna, Marı́a Àngels, Tomás... Un ensemble changeant mais néanmoins uni et combien animé! À l’IFP, j’ai eu le plaisir de travailler avec les membres du Département de Thermodynamique et Modélisation Moléculaire : Aurélie Wender, Emmanuel Krebs, Theodorus de Bruin, Philippe Ungeger et Hervé Toulhoat. Je tiens à remercier Hervé Toulhoat pour ses corrections des manuscrits préliminaires de la thèse (la fameuse mi-thèse de l’IFP) et le soin avec lequel il organise les activités du Coll ègue Doctoral de l’IFP. Un grand merci à mon promoteur IFP, Pascal Raybaud. Tout le long de ces trois années il a été présent et à l’écoute de mes problèmes. Last but not least, je remercie mon directeur de thèse, Philippe Sautet, qui m’a alloué un créneau hebdomadaire dans son serré palm et qui m’a accompagné tout le long de ce travail. Cette thèse aura constitué un tout petit pas pour l’avancée de sa carrière, mais un grand pas pour l’avancée de la mienne.
7 8 Introduction
Ce manuscrit rapport présente les travaux d’une thèse portant sur la modélisation moléculaire ab initio d’un catalyseur hétérogène constitué d’un nanoagrégat métallique de palladium sur l’alumine. Ce travail a été réalisé dans le cadre de la Division de Chimie et Physico-Chimie Appliquées à l’Institut Français du Pétrole et du Laboratoire de Chimie, UMR CNRS-ENS Lyon. En catalyse hétérogène, les catalyseurs sont des matériaux solides permettant d’induire deux effets sur un processus chimique réactionnel : une accélération de la vitesse de réaction et une modification de la sélectivité. En effet, l’interaction des réactifs avec le catalyseur réduit les énergies d’activation des éventuelles étapes élémentaires du processus chimique et favorise la formation de certains intermédiaires réactionnels. Les catalyseurs hétérogènes sont majoritairement supportés. Un intérêt de l’utilisation d’un support est de permettre la dispersion de la phase active métallique afin de maximiser le nombre de sites catalytiques exposés pour une quantité de phase active donnée. La maximisation de la dispersion de la phase métallique, tout en maintenant une activité intrinsèque élevée par site, est l’un des enjeux principaux de la catalyse. Un second est de modifier les propriétés de l’agrégat catalytique par interaction avec le support. La dispersion d’une phase métallique relie le nombre de sites actifs exposés en surface et le nombre total d’atomes. Plus grande est la dispersion, plus grand est le nombre de sites participants à la réaction. Étant donné le prix des métaux employés1dans la catalyse, il y a intérêt à ce qu’ils soient aussi dispersés que possible sur le support tout en gardant leur caractère métallique. La distribution de métaux en surface du support peut varier en fonction des paramètres de synthèse employés (pH, agent d’imprégnation, température de traitement) et des surfaces exposées par le support (taux d’hydroxylation, sites acides ou basiques). Le processus de synthèse d’un catalyseur industriel, une fois le support préparé, se déroule en plusieurs étapes : imprégnation, séchage, calcination et réduction. L’imprégnation peut se faire par échange chimique en mi1 Le prix actuel du Pd est d’environ 7.500 eur/Kg et celui du Pt 23.300 eur/Kg. Pour plus de renseignements, consultez le site http ://www.kitco.com/market. 9 lieux aqueux entre les espèces en surface et un agent chimique précurseur de type acétylacétonate Pd(acac)2 ou nitrite Pd(NO3 )2. Elle peut également se faire par vaporisation. L’élimination de l’eau présente dans les pores se fait par séchage à 120-150 o C et calcination à température variable (200-350 o C) selon la nature du précurseur employé. Finalement, la phase métallique est réduite en présence d’hydrogène à température variable (200-350 o C). Il est toujours très difficile de décrire avec précision la nature de l’interaction métal support dans le catalyseur après toutes ces étapes. Cela s’explique par le fait qu’il n’y a pas de données précises sur les sites préférentiels d’absorption en surface et que la distribution et la forme des agrégats métalliques adsorbés n’est pas exactement connue. Ces informations se situent au dlà des limites de résolution des techniques de caractérisation physique (EXAFS, XPS, STM, etc). Cependant, nous disposons de données utiles pour ajuster un modèle théorique. Le modèle que nous allons constituer dans ce travail prendra comme référence les catalyseurs en mode opératoire, c’est à dire, nous allons comparer notre résultat avec les travaux expérimentaux concernant la structure et l’activité du catalyseur à l’issue de l’étape de réduction. En suivant cette approche, nous étudierons donc les propriétés du métal supporté dans son état final. Nous ne préoccuperons donc pas d’explorer les étapes de synthèse dans ce travail. Le support employé dans le cadre notre étude est de type alumine, qui est utilisé majoritairement dans l’industrie du raffinage. Celle-ci est une alumine de transition de type delta ou gamma métastable par rapport à l’alumine alpha, le polymorphe thermodynamiquement stable. Elle présente une surface spécifique élevée (200-240 m2 /g) et des propriétés acido-basiques qui peuvent être contrôlées par l’ajout de chlore ou sodium. La texture est contrôlée lors du processus de synthèse. Le matériau résultant a une bonne résistance thermique et ténue mécanique dans les conditions de haute température et pression des réacteurs des raffineries industrielles. En revanche, sa forte porosité et sa faible cristallinité rendent l’interprétation des études expérimentales difficile, comme nous le verrons par la suite. La simulation moléculaire est donc devenu un outil indispensable pour la compréhension des phénomènes à l’échelle atomique sur ces supports. Le palladium allié avec d’autres métaux est couramment utilisé sur un support d’alumina gamma dans le reformage catalytique ; l’alumine possède des sites acides et le métal active les liaisons C-H et H-H contribuant ainsi aux réactions d’aromatisation et d’isomérisation. Le palladium dispersé sur alumine delta, polymorphe de l’alumine issu de la condensation par oxolation de l’alumine gamma, est utilisé en hydrogénation sélective des oléfines. L’activité du catalyseur est susceptible de dépendre de la nature de l’interaction métal-support. Cette interaction, conditionnée par les sites présents en surface du support (sites de Lewis, groupes hydroxyles,...) influence la dispersion du métal, la taille et forme géométrique des clusters adsorbés sur le support et leurs propriétés électroniques. L’étude théorique des propriétés acido-basiques de l’alumine gamma a fait l’objet d’une thèse antérieure. Les résultats de cette thèse constitueront 10 le point de départ de notre étude. L’enjeux de nos recherches est d’étudier dans quelle mesure l’interaction des particules de palladium avec l’alumine modifie sa dispersion et la réactivité du catalyseur. Pour cela, nous allons d’abord constituer un modèle de la phase métallique supportée en vue de l’utiliser pour étudier la nature de l’interaction métal-support et son influence sur les propriétés électroniques, énergétiques et morphologiques de la particule métallique. Le rapport est organisé de la façon suivante : le chapitre 1 donne un aperçu des travaux publiés dans le domaine pour montrer le contexte dans lequel se déroule nos recherches. Le chapitre 2 présente les méthodes de calcul que nous avons employée. Dans le chapitre 3 nous présentons le modèle de l’alumine-γ utilisé. Les résultats de nos travaux sont exposés dans les chapi tres 4-7. Pour des raisons d’ordre pratique, les résultats que nous avons publiés ou en cours de soumission sont exposés en anglais. Dans ce projet, nous avons dédié une partie de nos recherches à la nucléation des particules métalliques sur l’alumine. Le chapitre 4 aborde ce sujet d’un point de vue cinétique alors que le chapitre 6 le fait d’un point de vue thermodynamique. Les résultats de cette partie de nos travaux montrent l’influence de l’interaction métalsupport, de l’hydratation des surfaces et du taux de recouvrement du métal sur le processus de nucléation. Etant donné l’anisotropie des surfaces de l’alumine, l’exploration de l’espace conformationnel d’un agrégat supporté est difficile. Nous avons effectué des recherches afin de faciliter cette tache. Ces résultats feront l’objet du chapitre 5. Finalement, dans le chapitre 7 nous avons étudié l’influence de l’interaction métalsupport sur l’adsorption de petites molécules organiques : le monoxide de carbone et l’ethylène. Enfin, la conclusion de ce rapport tentera de dégager les concepts principaux sur l’interaction Pd/γ-Al2 O3 en vue de proposer de perspectives futures.
11 12
Chapitre 1 Contexte bibliographique
La synthèse contrôlé des catalyseurs métal/alumine-γ est l’un des enjeux majeurs de la recherche menée à l’Institut Français du Pétrole. Cette thèse s’inscrit dans une longue série de travaux de l’Institut dont le but est, à court terme, de contribuer à l’amélioration de la compréhension des catalyseurs industriels et, à plus longue terme, la synthèse de nouveaux catalyseurs. Le support oxyde étant au coeur du sujet, des nombreux travaux ont été réalisés dans le but de caractériser ces propriétés catalytiques et de définir un modèle atomistique réaliste de ces surfaces. Ce modèle est présenté dans le chapitre 3. Dans ce qui , nous présentons des travaux concernant l’étude de nano-agrégats supportés qui ont inspirés nos travaux de recherche. Nous les avons classifiés, selon l’objet de l’étude, en plusieurs sections. 1.1 Les différents modèles et polymorphes d’Al2O3
Avant d’aborder les travaux sur les nano-agrégats supportés, il est nécessaire de signaler qu’il existe souvent une ambiguı̈té dans les structures appelées γ-Al2 O3 dans les travaux de la littérature en science des surfaces. La calcination de la boehmite donne lieu à la formation de l’alumine alpha ou corundum (α-Al2 O3 ). Cette transition passe par plusieurs autres polymorphes métastables. C’est une série de transformations topotactiques qui dépendent de la température, du pH et du taux d’hydroxylation des surfaces du précurseur initial. Parmi ces structures métastables se trouve l’alumine gamma (γ-Al2 O3 ) : boehmite → γ-Al2 O3 → δ-Al2 O3 → θ-Al2 O3 → α-Al2 O3 13 Dans la boehmite, les aluminiums sont en coordination octrahédrique et les oxygènes forment un sous-réseau cubique faces centrées [1, 2]. La cellule élémentaire présente des lamelles Al-O-Al le long des directions a et b dont la cohésion est assurée par des liaisons hydrogène le long de la direction c (voir les illustrations et les explications des références [3, 4]). Au cours de la transition boehmite → γ-Al2 O3, les groupes hydroxyles se condensent en libèrent des molécules d’eau et une fraction des atomes des aluminiums migrent vers des sites tétrahédriques (désormais appelées dans le texte AlT d ). Le sous-réseau d’oxygène garde son arrangement en cfc pendant toute la série de transformations à l’exception de la dernière transition, θ-Al2 O3 → αAl2 O3, où leur empilement prend la forme d’un réseau hcp. Le taux d’aluminium en coordination tétrahédrique varie le long de la série (tableau 1.1), sauf pour la transition γ-Al2 O3 → δ-Al2 O3 qui consiste au frittage par oxolation de la face (110) de γ-Al2 O3. Pour les autres cas, la diffusion de ces atomes dans les sous-réseaux d’oxygènes pourait être la cause des barrières d’activation des transformations. De ce fait, plusieurs distributions d’aluminium en coordination tétrahédrique peuvent être assignées à une même phase. Dans l’alumine finale, α-Al2 O3, tous les aluminiums occupent des sites en coordination octahédrique.
Phase γ-Al2 O3 δ-Al2 O3 θ-Al2 O3 %AlT d 32 33 39 %AlOh 68 67 61
TAB. 1.1 – Taux de AlT d d’après des résultats en RMN 27 Al (page 1626 de ref. [3]). Les spectres de diffraction X (DRX) des alumines de transition sont difficiles à interpréter précisément en raison du désordre du sous-réseau d’aluminiums tétraédriques. Les pics correspondant aux plans contenant les oxygènes se distinguent nettement alors que ceux des aluminiums sont plus diffus. Des mesures
en
RM
N 27 Al ont permis de déterminer que le taux d’aluminiums tétrahédriques de γ-Al2 O3 varie entre un 20 et un 31% [5, 6]. La structure de cette alumine est souvent assimilée à celle de la spinelle lacunaire AB2 O4 (aussi évoquée comme la structure de MgAl2 O4 ) [7] : un réseaux cfc d’oxygènes où les AlT d et les AlOh sont sur des interstices et où il y a des lacunes mais la stoechiométrie proposée par cette étude, 0.33 Al2.67 O4, ne correspond pas avec celle de γ-Al2 O3
. Le modèle de l’alumine gamma crée à l’IFP est issu de la condensation topotactique de la boehmite. Des calculs ab initio, à pH neutre (ZPC), sur la condensation de la boehmite en γ-Al2 O3, montrent une maille avec une structure différente [8] de celle de la spinelle lacunaire, en bon accord avec les résultats DRX et en RMN et qui possède la stochiométrie correcte. Dans cette maille 25% des aluminiums sont en coordination tétrahédrique. Ce modèle, exposé dans le chapitre 3, a été repri dans les travaux de thèse de M. Digne [9] pour déterminer les taux d’hydroxylation [10] des 14 surfaces spécifiques et ses propriétés catalytiques. Le travaux de Digne ont été validés par l’expérience (images MET [11] de la morphologie et spectroscopie IR des hydroxyles en surface [12, 13]) et constituent le point de départ des structures que l’on utilisera dans nos travaux de recherche. Dans la littérature expérimentale, il est souvent fait mention d’Al2 O3 sans spécifier le polymorphe utilisé ce qui limite la portée des résultats avancés. Comme le montre la revue récente de P. Euzen et al. [3], les propriétés acido-basiques ou texturales de chaque type d’lumine conditionnent leur utilisation comme supports de catalyseurs industriels pour une application donnée. Toutefois, la représentation du catalyseur industriel, par des modèles expérimentaux ou théoriques, est incontournable lorsqu’il s’agit de caractériser les effets de surface avec des techniques de microscopie électronique, infrarouge, STM, TDP ou par modélisation ab initio. Une revue publiée par Gunter et Niemantsverdriet [14] montre les différents modèles utilisés pour l’étude des propriétés des surfaces. Ces structures approchées peuvent être des supports sphériques ou des films minces. Dans notre cas, le fait que γ-Al2 O3 soit en plus un matériel isolant présente des difficultés supplémentaires pour les techniques d’imagerie électroniques (STM) et il doit souvent être utilisé des films minces sur des supports conducteurs. De nombreux travaux expérimentaux utilisent des films synthétisés par oxydation de NiAl(110) ou oxydation de films d’aluminium. Cependant, une publication récente signale que la structure atomistique et les propriétés des surfaces Al2 O3 /NiAl(110) sont très différentes des polymorphes traditionnels l’alumine [15]. Dans le domaine théorique beaucoup d’études ont été menées sur le support αAl2 O3 et MgO du fait qu’il n’y a pas d’ambiguı̈té sur sa structure. Pour les études théoriques, le modèle couramment utilisé de l’alumine-γ est la structure spinelle. Toutes ces approches de science de surfaces contenant certaines hypothèses restrictives servent de point de comparaison à nos travaux théoriques avant extrapolation aux cas de catalyseurs réels. Il s’agira donc d’être prudent vis à vis des conclusions et interprétations tirées à partir des modèles aussi bien théoriques qu’expérimentaux, dans le cas où la nature du polymorphe n’est pas parfaitement connue.
1.2 Influence du protocole de synthèse et du polymorphe d’alumine
Les travaux récents de la thèse de M. Benkhaled [16] étudient les propriétés électroniques et la réactivité des particules hyperdispersées de Pd supportées sur γ-Al2 O3 et δ-Al2 O3. La voie de synthèse par imprégnation d’un complexe Pd(NO2 )2− 4, est suivie 15 des étapes de séchage puis de réduction à 200 o C. À l’issue de cette dernière, le métal se trouve sous forme réduite Pd0. Le polymorphe δ-Al2 O3 est aussi pris en compte puisqu’il est issu de la condensation par oxolation de la face (110) de l’alumine-γ (voir plus haut). Les échantillons du polymorphe δ présentent une surface spécifique (130 m2/g) inférieure à celle du polymorphe γ (200 m2 /g). Dans le catalyseurs hétérogènes, la dispersion est une mesure du nombre de sites d’adsorption disponibles par rapport à la quantité de métal déposée. Dans le travaux de Benkhaled, la dispersion du Pd sur les supports a été mesurée par adsorption de CO et la taille des clusters par spectroscopie MET (tableau 1.2).
Support γ-Al2 O3 δ-Al2 O3 % poids Pd dispersion (%) 0.093 → 0.296 91 → 100 0.079 → 0.420 96 → 100 TAB.
1.2 – Caractéristiques des catalyseurs Pd/Al2 O3 d’après [16]. Support γ-Al2 O3 δ-Al2 O3 Nature de voisins Nbre de voisins Distances (Å) Pd 5.6-5.9 2.74-2.76 Pd 4.9-5.3 2.69-2.75 Taille stimée (Å) 7.5-7.9 6.8-7.1
TAB. 1.3 – Caractérisation par EXAFS de catalyseurs
étudiés dans les travaux de M. Benkhaled [16]. La caractérisation en EXAFS de ces catalyseurs a permis de déterminer les espèces qui sont au voisinage de la sphère du Pd (tableau 1.3). Aucun atome d’oxygène du support n’a été mis en évidence pour les échantillons calcinés et réduits à 200o C ce qui traduirait une faible interaction de Pd avec le support. Par ailleurs, les tailles étudiées en EXAFS conduisent à des modèles d’agrégats contenant entre 10 et 15 atomes de Pd. Ces nano-agrégats ont de propriétés bien différentes de celle du Pd massique. Ceci est connu par le nom d’effet taille et sera décrit plus bas. Néanmoins, dans les échantillons δ-Al2 O3 calcinés à plus haute température (450o C), l’analyse EXAFS révèle la présence de liaisons Pd-O susceptibles de modifier l’activité finale. L’état électronique des catalyseurs a également été caractérisé par spectroscopie XPS et par chimisorption de CO en IR. Les énergies de liaison des échantillons avant l’étape de réduction, mésurées par rapport à l’état 3d5/2 du Pd, sont comparables à celle de la liaison Pd-O (337 eV). Elle diminue d’environ 1 eV après réduction. Cette diminution est légèrement plus grande lorsqu’on augmente la densité de particules métalliques : il s’agit donc d’un état dont l’énergie de liaison est plus près du Pd massique (335,2 eV). De plus, la fréquence de vibration du CO adsorbé augmente avec la densité de particules adsorbées. Il semble se dégager des études XPS et IR du CO qu’aucune influence du type d’alumine (δ ou γ) ne se manifeste. L’interprétation de 16 ce résultat reste ouverte. Par contre. pour des températures de calcination de 450 o C, le XPS révèle des énergies de liaison plus élevés ce qui traduit la modification des propriétés électroniques. Toutefois, sachant que les cristallites de δ-Al2 O3 résultent du frittage des faces (110) de l’alumine-γ (voir [3]), la simulation ab initio de l’interaction du Pd avec les faces (100) et (110) de la γ-Al2 O3 permettra d’explorer si des différences sensibles sont observées au niveau électronique. À ce niveau, il est donc crucial de considérer l’état correct d’hydroxylation des surfaces considérées dépendent des températures de traitement subies par l’échantillon. Du point de vue de l’activité en hydrogénation (butadiène ou butène) et pour de faibles densités de particules métalliques, les particules supportées sur γ-Al2 O3 présentent un turnover supérieur à δ-Al2 O3. L’interprétation proposée est basée sur la diffusion de l’hydrogène. Cependant, on ne peut exclure que les modes d’adsorption des réactifs puissent dépendre du support. À nouveau, l’étude des 2 faces (100) et (110) de l’alumine sera cruciale pour explorer ces effets.
1.3 Effet de taille
D’une manière générale, il est difficile de découpler expérimentalement effets de taille et effets de support. Plus la taille est petite, plus l’interaction avec le support est forte. L’activité électronique des sites d’une surface métallique varie selon le nombre de coordination des atomes en surface qui depend à son tour de la surface exposée [17, 18]. De plus, il existe des larges fluctuations dans les propriétés physico-chimiques en fonction de la taille pour les particules inférieures à 30 atomes [19, 20]. Ce phénomène est référencé par le nom d’effet taille. Il est connu expérimentalement que la taille des particules métalliques a un effet sur la chisorption du CO. Des mesures de thermodésorption de CO sur des particules de Pd supportées sur MgO [21] et de calorimétrie pour des particules supportées sur TiO2, SiO2 et Al2 O3 [22] montrent une augmentation de l’énergie d’adsorption lorsque la taille des particules est inférieure à 3 nm. L’effet du support vis à vis de l’effet de taille semble être du second ordre dans l’adsorption du CO selon ce études. De même, les travaux de thèse de M. Benkhaled [16] semblent confirmer que le type de support γ-Al2 O3 ou δ-Al2 O3 n’a que peu d ’influence sur les évolutions de la fréquence d’élongation du CO adsorbé en mode linéaire. La taille a aussi des effets sur les propriétés catalytiques. Par exemple, Boitiaux et al. ont montré que le turnover de certaines réactions d’hydrogénation diminue pour les petites tailles de particules de Pd/Al2 O3 [23]. 17 Une récente étude portant sur l’adsorption de l’éthylene sur Pd/Al2 O3 /NiAl(110) [24] montre que la taille de l’agrégat est susceptible d’influencer le mode d’adsorption de l’éthylène. Le mode π peu être observé pour des petites tailles, tandis que le mode di-σ est préféré pour de plus gros agrégats.
1.4 Effet de support 1.4.1 Études expérimentales
Les interactions entre le métal adsorbé et le support jouent une influence sur la réactivité des espèces adsorbées sur le catalyseur comme le montre la référence [25]. Dans cet article on étudie l’influence du support sur l’hydrogénation du propène sur Ir4. Le propène est plus fortement adsorbé et plus rapidement hydrogéné sur Ir4 /Al2 O3 que sur Ir4 /MgO. D’après les auteurs, il est possible de faire varier les propriétés catalytiques d’un couple métal/support d’autant plus que les clusters adsorbés sont petits.
1.4.2 Études théoriques a) Alumine-α
Il existe quelques travaux théoriques sur l’interaction métal-support dans la littérature. Le groupe d’Illas et Gomes, à l’Université de Barcelone, a publié une série d’articles sur l’interaction du Pd avec la surface (0001)α-Al2O3. Dans une première étude [26], les auteurs ont échantillonné plusieurs sites de la surface avec un atome de Pd. Comme modèle de complexe métal-oxyde ils ont choisi une cellule périodique, étudiée avec la fonctionnelle PW91, et un agrégat avec cette même fonctionnelle et la fonctionnelle hybride B3LYP. Les fonctionnelles hybrides ne peuvent être utilisées que sur des calculs moléculaires non périodiques en raison des difficultés d’implémentation qu’elles présentent sur les calculs en ondes planes. Les comparaisons entre le modèle périodique et l’agrégat (en utilisant la même fonctionnelle) montrent que la surface périodique tient mieux compte des effets de relaxation du support. Cependant, la cohérence entre les deux modèles est bonne. L’interaction du métal avec la surface est faible et la fonctionnelle PW91 tend à la surestimer par rapport à B3LYP. Les sites de plus forte interaction se trouvent localisés sur les oxygènes. En même temps, les projections de densité électronique sur les atomes en surface montrent qu’il y a un transfert de charge du Pd vers l’aluminium par l’intermédiaire d’une redistribution de la densité électronique des oxygènes. Ce transfert de charge implique la relaxa18 tion de la position des aluminiums de la première couche de la surface et cet effet est frustré si le Pd se trouve sur un site aluminium. Dans un autre article, les énergies d’interaction de deux agrégats, Pd3 et Pd4 sur α-Al2 O3 (0001), est calculée [27]. Des calculs préliminaires sur les agrégats métalliques isolés en mode couche ouverte et couche fermée ont permis aux auteurs de conclure que l’effet du spin sur les résultats est négligeable. Ces calculs montrent que la cohésion entre atomes de Pd dans ces systèmes est faible et que le agrégats peuvent être déformés facilement. L’énergie d’adsorption de Pd3 est légèrement plus faible que celle de Pd4 (figures et 1.2). D’après les auteurs, cela suggère que la nucléation en 3D est concurrentielle de celle en 2D. De plus, ils signalent qu’il n’est pas possible de déterminer quels sont les sites d’adsoption préférentiels pour ces agrégats, autrement dit, l’énergie d’interaction des agrégats métalliques avec la surface ne varie pas beaucoup dans les différents sites de la surface. Finalement, ils n’ont pas observé de transfert de charge entre les particules métalliques et la surface contrairement au cas des atomes isolés.
F IG. 1.1 – Agrégats de Pd3 sur la surface (0001)α-Al2O3 [27]. F IG. 1.2 – Agrégats de Pd4 sur la surface (0001)α-Al2O3 [27]. 19
Le group de Nørskov a également étudié la surface α-Al2 O3 (0001) en interaction avec le Pd. Dans la référence [28] l’interaction de ce métal avec les marches du support est étudiée. Des expériences en STM [29] montrent que le métal se distribue le long de structures linéaires dans les défauts et les marches de l’oxyde. Cela ne peut être simulé que dans des cellules (1x1) de la maille élémentaire, et il est nécessaire de prendre au moins une cellule (2x2) pour simuler le phénomène. Les marches riches en oxygène constituent les sites de plus forte interaction avec le métal (-1.5 eV/atom calculé avec la fonctionnelle PW91). L’interaction de dimères et de trimères de Pd avec les marches a également été simulé. Des densités d’états électroniques projetées sur le Pd montrent qu’en augmentant la taille des particules métalliques, il y a une plus forte délocalisation des électrons d due à un effet d’hybridation avec les états s du métal. b) Alumine-γ Márquez et Sanz ont publié un article sur l’interaction du Pd avec la surface (110) de γ-Al2 O3 avec une approche périodique et la fonctionnelle PW91 [30]. Le modèle d’alumine gamma employée par les auteurs est la structure spinelle : les aluminiums tetraédriques et octaédriques se trouvent dans les interstices du sous-réseaux cfc des oxygènes. L’interaction la plus forte se trouve sur les aluminiums tetraédriques et a une valeur de -3.81 eV. L’interaction Pd-O surfacique est plus faible, de l’ordre de -2 eV. Cependant, en regardant la surface que les auteurs montrent dans leur publication, nous pouvons observer que les aluminiums qu’ils sont classifiés comme tetraédriques pourraient être considérés comme des aluminiums tri-coodinnés issus des aluminiums tetraédriques du bulk. Comme les auteurs le signalent, le site de plus forte interaction se trouve entre deux aluminiums (selon leur classification) tetraédriques (voir la figure 1.3 et le tableau 1.4 pour plus de détails).
F IG. 1.3 – Structure de l’alumine gamma employée dans la référence [30].
20 rF EF rR ER AlT AlO O top bridge top bridge top bridge 2.316 2.342 2.383 2.579 2.122 2.410 2.445 3.104 2.140 2.530 -3.120 -3.220 -1.460 -1.550 -1.380 -1.430 2.90 1.640 1.680 2.316 2.449 2.308
2.
468
2.
172
2.
395
2.
367
2.5
21
2.290 2.780 -3.270 -3.810 -2.740 -3.090 -1.810 -1.650 3.400 2.290 2.160 TAB. 1.4 – Énergies d’adhesion du Pd sur l’alumine gamma selon la référence [30] : rF est la distance à l’atome le plus proche et EF l’énergie d’adsorption associé au site en eV sans relaxation de surface ; rR et ER sont leur équivalents
avec realaxation de surface. c) Autres modèles d’alumine
Le groupe de Jennison et Bogicevic a beaucoup publié dans le domaine. Cette équipe a choisi d’utiliser la fonctionnelle LDA dans leurs calculs parce-que d’après eux les énergies calculés avec cette fonctionnelle sont plus près des valeurs expérimentales. Dans l’un de ces travaux, un modèle d’alumine comparable à celui utilisé dans les publications expérimentales obtenu par oxydation de Al(111) [31] a été construit. D’après les auteurs, le modèle employé par les expérimentateurs est plus proche de la κ-Al2 O3 que de la phase γ de l’oxyde. Leur résultats montrent que les atomes de Pd ont une plus forte affinité pour les sites Al en surface que pour les sites O, ce qui semble en accord avec les expériences sur des films obtenus par oxydation de Al(111). Ce modèle d’alumine a été repris pour étudier les variations de l’interaction métal-oxyde pour plusieurs éléments du tableau périodique [32] (tableau 1.5 et figure 1.4). Les énergies d’adhésion des métaux à faible recouvrement de surfaces se corrèlent avec leur rayon ionique ce qui signifie que l’interaction métal-surface aurait un caractère plutôt ionique. Quand le recouvrement augmente, l’interaction avec l’oxyde diminue et les auteurs ont remarqué que, indépendement de l’adsorbat, il y a une polarisation latérale du métal à l’origine de cet effet. Les énergies d’adhésion calculés dans cet article sont utilisées pour faire une estimation de la mouillabilité des métaux considérés. Ce dernier point montre que le Pd n’est pas capable de mouiller la surface de l’oxyde. La même équipe a proposé dans un article [33] où, après comparaison des densités électroniques PW91 et LDA, une correction aux énergies DFT pour diminuer l’écart entre les résultats théoriques et expérimentaux sur les énergies d’adhésion. 21 Li
K Y Nb Ru Pd Pt Cu Ag Au Al Al0 6.0 3.6 6.9 6.5 5.3 3.2 3.3 4.6 3.1 2.3 5.9 Θ=1/3 Al1 O H 2.4 2.4 5.2 4.2 4.9 3.8 3.6 2.8 1.8 1.9 1.9 2.6 2.3 2.2 1.7 1.6 1.1 1.4 3.7 3.6 - Al 3.2 2.1 1.5 1.2 1.3 1.5 1.0 0.7 2.2 Θ=2/3 O 2.4 2.6 1.9 1.2 1.0 1.4 0.8 0.5 2.1 H 2.9 2.4 1.3 1.0 0.6 0.8 0.8 0.5 1.6 Al 2.6 1.3 0.9 0.7 0.6 0.9 0.6 0.4 1.6 Θ=1 O 1.7 1.9 1.4 0.7 0.4 0.6 0.5 0.3 1.8 H 1.6 1.2 0.6 0.5 0.3 0.4 0.3 1.1 1.08 1.64 1.25 1.02 0.94 0.96 0.97 0.90 1.01 1.02 1.00 F 1.0 0.8 1.3 1.6 2.2 2.2 2.2 1.9 1.9 2.4 1.5 q +1 +1 +3 +2 +1 +1 +1 +1 +1 +1 +3
TAB. 1.5 – Évolution des énergies d’interaction des métaux en fonction de leur rayon métallique (), électronegativité de Pauling (F), charge (q) et taux de couverture (Θ) de la surface exposée [32]. Le rayon atomique est normalisé par rapport à celui du Al3+ (1,43Å). F IG. 1.4 – Schéma de la surface employée dans [32]. O correspond à un oxygène, Al1 est un site où un aluminium est en coordination avec trois oxygènes de la première couche, H correspond à un aluminium de la deuxiéme couche en coordination avec trois oxygènes de la première et Al0 à un site entouré de trois atomes d’oxygène de la première couche. 22
1.5 Hydroxylation des surfaces
L’hydratation des surfaces peut avoir des conséquences sur la nucléation de la phase métallique et sa réactivité. Freund et collaborateurs ont montré qu’à quantité égale de métal déposé on obtient une plus grande dispersion sur les surfaces hydroxylées [34, 35] (figure 1.5).
F IG. 1.5 – Influence du taux d’hydroxylation sur la déposition de Rh sur une alumina : a) Surface nue, b) Après dépôt d’une couche de 0,1 Åde Rh à 90 K, c) Après dépôt d’une couche de 2 Åde Rh à 300 K, d) Après dépôt d’une couche de 2 Åde Rh à 300 K dans une surface hydratée [34].
Dans une autre étude il est mis en évidence que le mode de croissance du Co sur αAl2 O3 (0001) non hydratée est 3D tandis que, sur cette même surface mais en présence de l’eau, le mode de croissance devient 2D [36]. De plus, l’hydratation peut également avoir des conséquences sur la réactivité des catalyseurs comme le montrent des travaux sur l’oxydation du méthane [37, 38].
23 1.6 Nucléation et morphologie de la phase supportée
Étant donné que la taille des particules supportées a une influence sur la réactivité du catalyseur finale, une partie des travaux de recherche dans le domaine de la catalyse hétérogène cherchent à caractériser la nucléation et morphologie de la phase supportée [39, 40]. 1.6.1 Études expérimentales
Dans la référence [41], le Pd a été déposé par vaporisation à 600 K sur des surfaces γ-Al2 O3 (100) et α-Al2 O3 (1012). Le processus d’adsorption a été caractérisé par spectroscopie SSMIMS et l’épaisseur des couches déterminé par XPS. D’après ces résultats, le métal est dispersé aléatoirement sur la surface jusqu’à ce que le recouvrement atteigne la valeur critique de 1,4 1015 atomes cm−2 pour α-Al2 O3 et de 0,7 1015 atomes cm−2 pour γ-Al2 O3. À partir de cette valeur, la nucléation commence. Elle conduit à la formation de clusters tri-dimensionnels sur la α-Al2 O3 et à des ı̂lots bi-dimensionnels sur γ-Al2 O3. Dans ce second cas, à faibles taux de recouvrement le métal forme des liaisons Pd-Al avec les aluminiums en surface et ce n’est qu’à des taux de recouvrement élevés que l’on trouve des liaisons Pd-O. Les auteurs signalent que la liaison métal-support est la force motrice de la nucléation. Elle est plus faible pour γ-Al2 O3 que pour α-Al2 O3. Dans l’interprétation de ces résultats, il est toutefois nécessaire de tenir en compte la vraie nature du support employé qui a été caractérisé par la même équipe dans un autre article [42]. La morphologie des particules de γAl2 O3 présentée dans cette publication est différente de celle employée traditionnellement en catalyse : les faces majoritaires sont (100) 80%, (110) 10% et (112) 10%. Ceci est dû aux modes de synthèse de l’alumine-γ. L’alumine employée pour les travaux [41] et [42] a été synthétisée par oxidation d’un film d’aluminium et non par calcination de la boeh
mit
e. Les énergies d’adhésion de nanocrystaux de Pd sur un film de Al2 O3 sur NiAl(100) et leur structure on été déterminées indirectement par analyse des morphologies observées en STM [29]. Les images STM montrent que le métal a tendance à se déposer le long des marches de la surface (figure 1.6(a)) et elle ont permis de voir que, une fois l’épaisseur de la phase métallique est de 15 Å, les clusters augmentent leur taille dans les directions parallèles à la surface jusqu’à atteindre à 40 Å de longueur. La structure atomique des clusters expose les plans (111) et (100) du Pd massique (figure 1.6(b)). Les auteurs ont utilisé la construction de Wulff et des énergies de surface répertoriées dans la littérature pour en déduire l’énergie d’adhésion du Pd, qu’ils estiment autour de 2,8 ± 0,2 J/m2. Ces résultats serviront de comparaison à nos travaux de modélisation du chapitre 6. 24
(a) Clusters de Palladium sur les marches d’une alumina. (b) Zoom de l’image précédente. F IG. 1.6 – Images d’une phase métallique de Pd déposé sur alumine [29]. 1.6.2 Étude théoriques
Dans les travaux théoriques portant sur la nucléation des métaux, on fait souvent appel à des méthodes de dynamique moléculaire. Étant donné que les champs de forces adaptés aux oxydes métalliques sont rares, il est préférable dans certains cas d’utiliser des approches ab initio. Le dépôt du Pd et du Cu sur α-Al2 O3 (0001) a été étudié par le group de Cruz Hernández et Sanz [43, 44]. Ces travaux ont examiné l’influence de la température et du taux de recouvrement en métal sur la nucléation. Goniakowski et Mottet ont également étudié les nanoagrégats de Pd supportés sur MgO(100) et montré que les phase métallique a une structure pyramidale tronquée [45]. Tous ces articles relèvent un problème fondamentale dans les études théoriques des agrégats supportés : plus l’agrégat est grand, plus la détermination d’un conformère stable est difficile. Dans le but de faciliter cette tache, Eichler a récemment proposé une procédure pour déterminer la structure de d’un agrégat supporté à partir d’un calcul de la surface d’énergie potentielle (SEP) pour un atome [46]. Une fois que la SEP d’un atome est connu, la SEP approchée d’un agrégat à N atomes métalliques est générée en superposant n SEP atomiques. Nous avons employé cette approche pour déterminer les sites d’adsorption d’un agrégat Pd4 sur les surfaces de l’alumine dans le chapitre 5.
1.7 Conclusion
L’activité finale d’un catalyseur hétérogène dépend du support, son taux d’hydroxylation, de la phase métallique et des paramètres tenus en compte lors du processus de synthèse. Cette dernière conditionne la taille et dispersion des nano-agrégats supportés.
| 17,762
|
tel-04485450-DEDIEU_2019_archivage_cor.txt_13
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
Quand l'état se retire : la suppression de l'ingénierie publique dans le domaine de l'eau. Science politique. Université Montpellier, 2019. Français. ⟨NNT : 2019MONTD016⟩. ⟨tel-04485450⟩
|
None
|
French
|
Spoken
| 7,008
| 10,803
|
Comme les dotations des services baissaient tout doucement, on arrivait au départ à la retraite du baby-boom, les services perdaient des ETP sans en gagner. En plus, c’était un peu ceuxlà sur lesquels on avait un peu calé nos expertises et, pour cause, c’était les plus aptes à le faire. »256 Parallèlement à la baisse des effectifs, les DDAF peinent à recruter des fonctionnaires aux profils adéquats. La majorité des ingénieurs qui mènent des activités d’ingénierie publique en DDAF sont d’anciens élèves fonctionnaires de l’École nationale du génie de l’eau et de l’environnement de Strasbourg (ENGEES). Or, celle-ci tend de plus en plus à privilégier le recrutement d’élèves civils plutôt que celui d’élèves fonctionnaires. Chaque année, le ministère de l’Agriculture détermine le nombre d’élèves fonctionnaires et civils (non-fonctionnaires) souhaités. Les candidats en tête de classement à l’issue du concours d’entrée à l’ENGEES peuvent choisir l’un ou l’autre statut. Ceux qui choisissent le statut d’élève fonctionnaire deviennent salariés de l’État. Leur scolarité est gratuite et ils perçoivent une rémunération durant toute la durée de leur formation en contrepartie de laquelle ils doivent servir l’État pendant plusieurs années suivant l’obtention de leur diplôme. Ils suivent le même cursus que les élèves non fonctionnaires, mais peuvent accéder, à l’issue de leur parcours, à des postes dans la fonction publique qui leur sont réservés, essentiellement dans les services déconcentrés de l’État du ministère de l’Agriculture. Les élèves civils, eux, sont majoritairement employés dans le secteur privé (bureaux d’études ou d’ génieur-conseil, sociétés de travaux publics...). Or, on observe depuis 1992 l’inversion du rapport entre élèves fonctionnaires et élèves civils au sein de l’École257. En 1967 par exemple, on dénombre 30 élèves fonctionnaires pour 8 élèves civils. En 2008, ils ne sont plus que 16 élèves fonctionnaires. En revanche, 58 élèves civils intègrent l’École la même année. La tendance est donc à la réduction du nombre Mensuel d’informations du CGAAER, avril 2007, n° 11, p. 6. Équivalent temps plein. 256 Entretien avec un ex-responsable DDAF (avril 2016). 257 Selon la base de données qui nous a été fournie par l’amicale des anciens élèves de l’ENGEES. 254 255
Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale d’ingénieurs spécialisés dans l’EPA disponibles pour intégrer les services déconcentrés de l’État.
Les fréquentes évolutions du code des marchés publics obligent par ailleurs à une remise à niveau constante des agents. Tandis que les effectifs diminuent, la charge de travail augmente et démotive les fonctionnaires. La difficulté est telle que les marchés passés sont parfois vulnérables sur le plan juridique258. Les moyens n’étant pas au rendez-vous dans certaines DDAF, la mission n’a plus tellement de sens. Quant au ministère de l’Équipement, le transfert d’une partie des routes aux conseils généraux dans le cadre de l’Acte II de la décentralisation259 de 2003-2004 prive le ministère de l’Équipement d’environ 30 800 ETP. Un tiers des agents des DDE et des directions régionales de l’équipement concerné est transféré. Le personnel restant est repositionné en interne. La réforme crée une situation de sureffectif dans les services déconcentrés du ministère de l’Équipement, notamment en catégorie C260. Or, le personnel de catégorie C n’est pas celui sur lequel le ministère compte pour accompagner la conversion fonctionnelle des services. 1.2. La perpétuation du débat sur la « plus-value de service public »
La réflexion sur la valeur ajoutée des missions d’ingénierie publique d’État par rapport à l’offre privée ne prend pas fin avec l’achèvement du Plan de modernisation de l’ingénierie publique. Au contraire, la question du devenir de la mission, de la manière de la réorienter ne cesse d’être posée. Le 22 janvier 2004, une instance d’évaluation du ministère de l’Équipement composée d’ingénieurs des Ponts et Chaussées rend un Rapport sur l’évaluation concomitante de la mise en œuvre du plan de modernisation de l’ingénierie publique. Les auteurs du rapport considèrent qu’il est « salutaire de se demander en quoi [la plus-value de service public] réside vraiment, en s’intéressant de plus près au fonctionnement réel des bureaux d’études privés (relations avec la clientèle, fabrication des prix, méthodes de travail). En d’autres termes, pour objectiver et donner une réalité à la « plus-value de service public », il convient de se poser la question suivante : « parmi les éléments fournis par le service public, lesquels ne sont pas transformables par un C’est en tout cas le souvenir qu’en a l’un des anciens représentants du syndicat de l’agriculture et de la consommation qui était aussi chef de service « études et réalisations » en DDAF (l’entretien a été passé en avril 2016).
259 Loi du 13 août 2004 relative aux libertés et responsabilités locales. 260 Cour des comptes, « Bilan de la décentralisation routière » dans le Rapport public annuel de 2012. 258 228
Partie I. Les déterminants de la réforme de l’État professionnel privé en avantage concurrentiel? » (p. 12). La question de la complémentarité de l’intervention étatique avec celle du privé reste ouverte au début des années Parallèlement, les organismes de l’État qui travaillent dans le domaine de l’eau continuent de se détourner de la « solution équipement ». Cela montre que de moins en moins d’acteurs étatiques croient que la plus-value de service public se situe encore du côté de l’équipement. C’est le cas des agences de l’eau par exemple. Au moment de leur création en 1964, leur répertoire est qualifié d’« équipementier » (Bouleau, 2015). Elles mènent une politique paternaliste auprès des maîtres d’ouvrages en matière de barrages, de stations d’épuration et de réseaux d’eau potable. Au fur et à mesure, d’autres répertoires d’action se développent : le répertoire « coordination » et le répertoire « écologie ». Ce dernier, qui émerge dans les années 1990 dans le contexte de la loi sur l’eau de 1992, se renforce dans les années 2000 avec « l’écologisation » des deux autres répertoires à la suite de la directive-cadre européenne sur l’eau de 2000 (Bouleau, Gramaglia, 2015). L’objectif de la directive est d’atteindre le bon état écologique des masses d’eau. En cas de non-atteinte de cet objectif, des sanctions financières sont prévues. Ces sanctions peuvent, depuis la loi sur l’eau et les milieux aquatiques de 2006, se répercuter sur le budget des agences de l’eau, incitant fortement celles-ci à revoir leurs priorités. Le Cemagref261 poursuit aussi son évolution. La mécanisation et l’aménagement rural ne sont plus au cœur de ses préoccupations. Le Centre affirme sa conversion aux questions agroenvironnementales et à la recherche scientifique, ce qui conduit l’établissement à changer de nom en novembre 2011 pour devenir l’Institut national de recherche en sciences et technologies pour ’environnement et l’agriculture (Irstea). Le ministère de l’Équipement écologise également son répertoire d’action. En amont de la RGPP, le 18 mai 2007, il fusionne avec le ministère de l’Environnement et de l’Industrie. La création de ce ministère répond à une logique plurielle : satisfaire une partie de la société civile, promouvoir une « écologie de droite », faire des économies en mutualisant les moyens et... repositionner les effectifs du ministère de l’Équipement après le transfert des routes aux conseils généraux (Lascoumes et al., 2014). La fusion du ministère de l’Équipement avec celui de l’Environnement apparaît comme un bon moyen de repositionner ses sureffectifs de catégorie C. Elle permet aussi au ministère de 261 Pour rappel, il s’agit du Centre national du machinisme agricole, du génie rural, des eaux et forêts. 229 Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale l’Environnement de disposer enfin de relais départementaux, issus des anciennes DDE, pour mettre en œuvre ses politiques : « Le ministère de l’Environnement disait : “je n’ai pas de service technique pour mettre en œuvre ma politique environnementale”, ce qui a finalement ouvert la boîte qui a permis au ministère de l’Équipement de dire : “je phagocyte le ministère de l’Environnement et je me crée une ingénierie verte à bas coût”, alors que le ministère de l’Agriculture a regardé les trains passer. Il n’a rien vu venir... enfin, à mon avis, il l’a vu venir, mais n’a rien fait pour l’empêcher parce qu’il n’avait pas la capacité en personnel de phagocyter le ministère de l’Écologie. »262
Pour la première fois depuis la création du ministère de l’Équipement en 1966, en dehors d’une période de courte durée, la dénomination « Équipement » disparaît des étiquettes ministérielles (Milly, 2012b). En 2001, P. Duran disait : « rien de ce que fait concrètement l’Équipement ne peut être fait ailleurs et par d’autres » (p. 66-72). La plupart des acteurs (para)étatiques en semblent de plus en plus convaincus. 2. La problématisation pathologique de la dette publique
Parallèlement à la perpétuation des interrogations sur le caractère justifié ou non des missions d’ingénierie publique, un autre problème monopolise progressivement l’agenda politique, celui du déficit public. À partir de 2002, le déficit public de la France passe audessus des 3 % du PIB263. Le gouvernement défend une lecture souple du pacte de stabilité et « accuse les services de la Commission européenne, chargée du rappel à l’ordre permanent, d’être “froids, rigides et imperturbables” » (Lemoine, 2008, p. 122). La barrière des 3 % n’est pas perçue comme impérative par le politique, contrairement aux « techniciens » qui accusent le politique d’être « inconscient, irresponsable et politicien » (ibid.). Les choses changent avec l’arrivée de l’avocat d’affaires Nicolas Sarkozy au ministère des Finances, même s’il ne reste pas longtemps à ce poste (31 mars – 29 novembre 2004). Son activisme et sa volonté de mettre en scène une rupture avec la Entretien avec le chef du bureau de l’organisation des services et responsable du pilotage de l’activité d’ingénierie au ministère de l’Agriculture (2000-2005) (avril 2016). 263 Le déficit public passe de 1,4 % en 2001 à 3,1 % en 2002 puis 3,9 % en 2003. Il redescend ensuite à 3,5 % en 2004, 3,2 % en 2005, 2,3 % en 2006, 2,5 % en 2007 et remonte à 3,2 % en 2008. Les chiffres proviennent d’un document publié en ligne de la direction du Budget du ministère de l’Action et des Comptes publics intitulé La trajectoire des finances publiques en quelques chiffres. Cf. https://www.performancepublique.budget.gouv.fr/sites/performance_publique/files/files/documents/performance/RDV_Budget/prese ntation_trajectoire_finances_publiques.pdf. Partie I. Les déterminants de la réforme de l’État politique budgétaire précédente portent leurs fruits.
B. Lemoine (2008) montre comment il parvient à « problématiser la dette publique », désormais perçue comme un phénomène insoutenable et comme constituant un risque collectif. Les écarts avec le pacte de stabilité doivent donc être combattus. Thierry Breton, ministre de l’Économie de 2005 à 2007, prolonge l’œuvre entreprise par N. Sarkozy. En 2005, il commande un rapport à Michel Pébereau, inspecteur des Finances, président du conseil d’administration de BNP Paribas et président de l’Institut de l’entreprise, un think tank patronal. Le rapport a notamment pour objectif de « définir les orientations et les mesures nécessaires pour assurer le redressement de nos finances publiques et réduire leurs charges pour le futur » et « proposer toutes mesures de nature à dégager des marges de manœuvre nouvelles en appui des réformes que doit mettre en œuvre notre pays, y compris les mesures relatives à la gestion de la dette elle-même »264. Le rapport remis au ministre des Finances le 14 décembre 2005 parvient à convertir le « langage administratif disponible en propositions endossables politiquement » (Lemoine, 2008, p. 128). Le succès médiatique et politique du rapport Pébereau, qui décrit une situation particulièrement dramatique des finances publiques, rend inaudible une conception alternative, non pathologique de la dette publique. Selon le rapport, « depuis vingt-cinq ans, la dette des administrations publiques augmente sans cesse : entre 1980 et 2004, elle a été multipliée par cinq et a atteint, en 2004, 1 067 milliards d’euros » (p. 23). Il dresse un portrait du futur alarmant : « Si rien n’était fait, les besoins de financement des régimes de retraite et d’assurance maladie ne cesseraient de s’aggraver à l’avenir. Même en étant optimiste, dès 2015, il manquerait chaque année plusieurs dizaines de milliards d’euros pour payer les retraites et les dépenses d’assurance maladie. Ici encore, il n’y a donc pas lieu de s’attendre à une amélioration spontanée de la situation, mais au contraire à la fragilisation croissante des régimes sociaux. » (p. 15) Le discours alternatif existe cependant. B. Lemoine (2008) cite par exemple le directeur des études économiques à l’OFCE265 Xavier Timbeau : 264 Voir la lettre de mission de T. Breton signée le 8 juillet 2005 et incluse dans le rapport Pébereau, Rompre avec la facilité de la dette publique, pour des finances publiques au service de notre croissance et de notre cohésion sociale, rapport remis au ministre des Finances Thierry Breton le 14 décembre 2005, Paris, La Documentation Française. 265 Observatoire Français des Conjonctures Économiques. 231 Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale
« Considérer que le problème de la société française aujourd’hui, c’est la dette publique! S’être mis cette idée dans la tête! Alors qu’il y a eu les émeutes au mois de novembre, qu’il y a du chômage. C’est surréaliste! » (p. 138) Mais ce discours reste en marge du débat. On assiste peu à peu à une « budgétisation » de la réforme de l’État (Henry, Pierru, 2012, p. 5). En 2006, la LOLF entre en vigueur. Le ministère des Finances pilote désormais l’activité des autres ministères à l’aide de la remontée d’information sur les dépenses des ministères par le biais des indicateurs de performance que ceux-ci doivent remplir. En 2006-2007, les « audits de modernisation » lancés par la direction générale de la modernisation de l’État, direction créée au ministère des Finances en 2005, passent les politiques publiques au crible pour repérer d’éventuelles sources d’économies budgétaires. Le tournant conceptuel opère si bien que les trois principaux candidats à l’élection présidentielle de 2007266, avec une intensité variable, vont publiquement endosser l’objectif de réduire la dette publique. 3. Des solutions alternatives et crédibles à l’ingénierie publique d’État
Des solutions alternatives à l’ingénierie publique d’État déjà présentes lors des séquences précédentes de réforme apparaissent de plus en plus crédibles. Il s’agit d’abord de réorienter les effectifs sur les missions que l’État définit comme prioritaires, car au cœur de l’exercice de ses missions régaliennes : la prévention des inondations, les polices de l’environnement et des déchets, la sécurité routière267... C’est le sens du transfert des missions de solidarité entre le milieu urbain et le milieu rural dans le domaine de l’EPA aux agences de l’eau à partir du 1er janvier 2005. Ce transfert s’accompagne de la suppression du Fonds national pour le développement des adductions d’eau (FNDAE) remplacée par une modulation des redevances perçues par les agences de l’eau268. L’instruction des dossiers d’attribution d’aide par les DDAF prend définitivement fin le 31 décembre 2006. Deux ans seulement avant la politique de retrait, les services d’équipement rural perdent, avec le FNDAE, deux ressources essentielles : un levier d’action pour inciter les SPEA à aller dans le sens souhaité par les agents de l’État269 et un moyen de financer le bureau d’études Diadème Ingénierie qui appuyait les DDAF sur l’aspect informatique de Il s’agit de N. Sarkozy, Ségolène Royal et François Bayrou. Voir à ce sujet la DNO de 2005. 268 Voir l’art. 121 de la loi de finances rectificative pour 2004. 269 B. Barraqué (1995b, p. 443) parlait déjà, en 1995, du désengagement de l’État dans le financement des politiques de l’eau. La suppression du FNDAE ne fait que concrétiser ce désengagement. Partie I. Les déterminants de la réforme de l’État
la GSP/DSP. Avec l’arrêt de l’instruction des dossiers de demande de subvention, les équivalents temps plein (ETP) qui y étaient consacrés peuvent désormais être affectés aux missions prioritaires du ministère de l’Agriculture. Si l’on en croit le témoignage suivant, Claude Guéant, secrétaire général de l’Élysée au moment de la décision de 2008, soupçonnait les DDAF et les DDE de mettre en échec les politiques de décentralisation et de maintenir volontairement les maîtres d’ouvrage locaux dans une situation de dépendance. Cela sous-entend qu’en l’absence d’intervention étatique, les collectivités territoriales seraient parfaitement capables de sortir de « leur ignorance » en matière d’équipement : « Moi, j’ai entendu en 2004-2005 des discours tenus par la direction générale des collectivités locales (DGCL) du style : “finalement, les fonctionnaires du ministère de l’Équipement et de l’Agriculture sont les moins enclins à la décentralisation de l’État parce qu’ils veulent absolument laisser les communes dans leur ignorance. Ça leur donne des missions d’ingénierie” [...]. Ce discours était tenu par le haut niveau de la DGCL, donc par le directeur de cabinet qui est devenu secrétaire général de l’Élysée. Et voilà, en 2007, on savait ce qu’il en était. »270 Donner la priorité à de nouveaux objectifs de l’action publique et compter sur les collectivités territoriales pour se structurer sont des solutions alternatives que l’on rencontre lors des séquences de réforme précédentes. Ce qui change au cours des années 2000, c’est qu’un certain nombre de hauts fonctionnaires vont également acquérir la conviction que le secteur privé n’est pas défaillant. L’idée a d’autant plus de poids qu’elle figure dans le rapport du ministère de l’Équipement du 22 janvier 2004 dans lequel les ingénieurs des Ponts et Chaussées réhabilitent l’intervention privée. De leur propre aveu : « l’enquête réalisée auprès de professionnels privés conduit à réviser un certain nombre d’idées répandues à l’Équipement » (p. 11) : « Il convient de revisiter un lieu commun : celui de l’intéressement et du diktat du chiffre d’affaires, du “privé qui fait des coups et disparaît ensuite”, qui ne se positionne que sur des affaires rentables, qui ne sort pas de la logique contractuelle et ne fournit, à l’euro près, que ce pour quoi il a été payé. En effet, même si tout cela existe bel et bien, certains des professionnels rencontrés sont présents de longue date auprès de collectivités modestes, sur des marchés très locaux, et détiennent la “mémoire technique” des territoires, parfois au même titre voire davantage que les subdivisions. Ils remplissent également pour leurs clients habituels le rôle de conseil informel dont souvent contrôleurs et subdivisionnaires disent 270 Entretien avec le chef du bureau de l’organisation des services et responsable du pilotage de l’activité d’ingénierie au ministère de l’Agriculture (2000-2005) (avril 2016). 233 Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale détenir le monopole. nous
génieurs des s Chaussées Le privé semble même constituer une alternative crédible aux services publics territoriaux comme les services départementaux d’assistance technique aux exploitants de station d’épuration (SATESE) et à l’eau potable (SATEP). En effet, la loi sur l’eau de 2006 et son décret d’application du 26 décembre 2007271 font entrer les SATESE et SATEP dans le champ concurrentiel. Le Sénat parvient néanmoins à sauver une assistance technique départementale solidaire au profit des collectivités « qui ne bénéficient pas des moyens suffisants à l’exercice de leurs compétences »272. En effet, lors des débats autour de la loi sur l’eau de 2006, il fait reconnaître les SATESE et SATEP comme des « services économiques d’intérêt général » (SIEG), par analogie avec les dispositions de la loi Murcef du 11 décembre 2001 pour le domaine de la voirie. Les SATESE et SATEP sont désormais soumis aux règles de la concurrence « dans les limites où l’application de ces règles ne fait pas échec à l’accomplissement en droit ou en fait de la mission particulière qui leur a été impartie »273. Mais une partie de l’offre d’assistance départementale est soumise au code des marchés publics. Cela signifie que le législateur ne reconnaît plus que partiellement à l’assistance technique sa plus-value de service public, tant du côté des conseils généraux que de l’État. L’assistance technique publique est mise sur le même plan que l’assistance technique privée. De là, il n’y a qu’un pas à franchir pour que la suppression de l’ingénierie publique d’État apparaisse comme une solution crédible pour diminuer la dette publique. 4. Un rapport de force favorable au retrait de l’État
Avec l’arrivée au pouvoir d’acteurs porteurs d’une conception pathologique du fonctionnement des services déconcentrés et de la dette publique, le rapport de force entre les tenants du statu quo et les partisans du changement s’inverse par rapport à la séquence précédente (4.1.). Les hauts fonctionnaires techniques, ouverts au changement, mais 271 Cf. art. L. 3232-1-1 du CGCT. Cf. art. L. 3232-1-1 du CGCT. 273 Dispositions de l’art. 86, alinéa 2 de la version consolidée du 24/12/2002 du Traité instituant la communauté européenne. 272 234
Partie I. Les déterminants de la réforme de l’État favorables au maintien de l’ingénierie publique d’État sont marginalisés au profit de hauts fonctionnaires administratifs qui ont acquis, au cours de leurs parcours, une « culture privative » (4.3.). La RGPP est une réforme très centralisée qui marginalise aussi bien les hauts fonctionnaires techniques que le personnel de terrain
qui
,
pour des raisons diverses
, é
prouve des difficultés à attaquer frontalement
la réforme
(
4.3
.). Opposant les élites politiques et administratives, d’un côté, et les fonctionnaires « subordonnés », de l’autre, la RGPP conduit à une réforme particulièrement centralisée (Henry, Pierru, 2012). L’entourage du président, ministériel et administratif, choisi pour sa loyauté à la cause, va lui donner les ressources pour radicaliser la réforme et adopter le format « industriel » de l’entreprise (Bezes, 2009, p. 417) : « le calendrier initialement fixé est particulièrement court aussi bien pour le temps laissé aux audits que pour les annonces publiques de décisions » (Bezes, 2010, p. 776). 4.1. Des « insurgés » à la tête de l’État
Avec l’arrivée à la présidence de la République de N. Sarkozy, on assiste à l’identification d’acteurs porteurs d’une conception pathologique du fonctionnement des services déconcentrés de l’État et de la dette publique au personnel politique au pouvoir. Au ministère de l’Environnement, Jean-Louis Borloo est particulièrement méfiant à l’égard de l’administration territoriale de l’État (Epstein, 2013b). De 2002 à 2004, il est ministre délégué à la ville et à la rénovation urbaine. La manière dont il met en œuvre la loi d’orientation et de programmation pour la ville et la rénovation urbaine du 1er août 2003 témoigne de l’idée qu’il se fait des services déconcentrés de l’État. Les DDE, notamment, sont à son goût trop proches des élus locaux et, par conséquent, incapables de rester cantonnés dans leur rôle de simples exécutants et de relayer efficacement les attentes de l’État. N. Sarkozy s’entoure également de personnalités issues du monde des affaires. Ceux-ci partagent sa vision de la gestion de l’État comme une entreprise. Il nomme par exemple Christine Lagarde, avocate d’affaires et éphémère ministre de l’Agriculture entre mai et juin 2007, au ministère de l’Économie (2007-2011). Il nomme également Éric Woerth, diplômé de l’école des Hautes études commerciales (HEC) et ancien consultant du cabinet de conseil américain Arthur Andersen, au ministère du Budget. Une fois élu, N. Sarkozy se crée une image d’homme providentiel et s’appuie sur un gouvernement gagné à sa cause pour s’attaquer frontalement au déficit public. Il met en 235 Chapitre 2.
La suppression
de
l’
ingénierie publique d
’
État
: les contradictions d
’
une réforme
d’
inspiration néo
-
managériale
place un grand ministère du Budget, des Comptes publics et de la Fonction publique, ce qui inscrit le portefeuille de la Fonction publique dans une réflexion dominée par les enjeux budgétaires. La réforme rompt avec le caractère discret et indirect des politiques de réforme de l’État précédentes. Pour la première fois, un homme politique va s’approprier les recettes du New Public Management (Bezes, 2009), notamment celle qui consiste à faire plus avec moins, à organiser une sobriété dans l’utilisation des ressources (Hood, 1995). Cela se traduit par une politique de réduction des effectifs de la fonction publique d’État qui s’appuie notamment sur une nouvelle mesure : le non-remplacement d’un fonctionnaire sur deux partant à la retraite dès 2009. Le lancement de la RGPP par le conseil des ministres du 20 juin 2007, qui reprend la méthode des « audits de modernisation » de 2006-2007, est également destiné à accélérer la recherche d’économies dans le secteur public d’État par des stratégies d’externalisation (Bezes, 2010). Concrètement, la méthode RGPP consiste à ce que chaque ministère dresse la liste des politiques publiques dont il a la charge en indiquant le coût et le nombre d’agents correspondant. Les ministères s’appuient pour cela sur le savoir-faire de grands cabinets de conseil qui passent en revue leurs objectifs, dépenses, résultats et modes de fonctionnement. Chaque secrétaire général doit ensuite présenter, devant le secrétaire général de l’Élysée Claude Guéant et le directeur de cabinet du Premier ministre Jean-Paul Faugère, les propositions de réduction de son périmètre d’action ministériel. Les décisions de réorganisation de l’administration de l’État sont ensuite validées au sein d’un Conseil de Modernisation des Politiques Publiques (CMPP) placé sous la présidence du président de la République. 4.2. Un entourage administratif favorable à la radicalisation de la réforme de l’État
À partir de mai 2007, les nominations aux fonctions administratives de direction sont largement politiques et marquent le changement de leadership (Bezes, 2009, p. 473). Aux ministères de l’Agriculture et de l’Équipement, comme ailleurs, les hauts fonctionnaires techniques sont mis à la marge du processus de décision au bénéfice de hauts fonctionnaires administratifs (4.2.1.) qui se démarquent des hauts fonctionnaires administratifs précédents par leur « culture privative » (4.2.2.).
Partie I. Les déterminants de la réforme de l’État 4.2.1. La marginalisation inédite des hauts fonctionnaires techniques au profit des hauts fonctionnaires administratifs
Tandis que dans d’autres domaines de l’action publique, les élites sectorielles ont depuis longtemps perdu du terrain par rapport aux énarques274, la marginalisation des hauts fonctionnaires techniques au profit de hauts fonctionnaires administratifs est un fait inédit dans la trajectoire de réformes de l’ingénierie publique d’État. La RGPP s’applique de manière très verticale et sans véritable procédure interministérielle ni dialogue social. Elle est pilotée par un noyau dur très concentré d’inspecteurs des finances, de préfets et de souspréfets. La proposition de supprimer l’ingénierie publique est le fait de fonctionnaires appartenant au « premier cercle » de réformateurs (Rouban, 2010). Celui-ci est composé des « dirigeants administratifs de l’Élysée et de Matignon, des directeurs et directeurs adjoints des ministères de l’Économie et des Finances ainsi que de la Fonction publique ou de la Réforme de l’État, des directeurs d’administration centrale les plus impliqués dans la réforme (fonction publique, modernisation de l’État), des membres des cabinets ministériels du budget et de la fonction publique et de tous les conseillers de cabinet chargés de ce dossier dans les plus grands ministères » (ibid., p. 867). Le « deuxième cercle » est « celui des relais ministériels notamment formés par les secrétaires généraux et les directeurs chargés de la gestion des ressources humaines, de la “modernisation” ou de la “réforme” selon les appellations » (op. cit.). Les ingénieurs des Ponts et Chaussées et les ingénieurs du GREF sont relégués à une fonction d’exécution. Ils sont beaucoup moins présents dans les premier et deuxième cercles de réformateurs que lors des réformes des gouvernements précédents (gouvernements Raffarin et Villepin). Ils font partie de ce que Luc Rouban appelle le « troisième cercle » qui est « composé de tous les directeurs ou directeurs adjoints des ministères ainsi que des directeurs d’administration centrale qui doivent intégrer la réforme dans leur travail sans en être directement responsables, car ils sont en charge de secteurs techniques bien identifiés » (op. cit.). 274 C’est ce que montre par exemple S. Barone (2008, p. 312) à propos des politiques ferroviaires depuis
les années
1980. 237 Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale
Tableau 5. Présence des corps des Ponts et du GREF dans les divers cercles de réformateurs entre 2002 et 2009 (%) Cercle 1 Raffarin Ponts et Chaussées GREF De Villepin Cercle 2 Fillon Raffarin De Villepin Cercle 3 Fillon Raffarin De Villepin Fillon 6 7 2 11 7 8 9 11 10 0 2 0 8 5 0 5 4 9
Source : Rouban, 2010. Les hauts fonctionnaires techniques se sont éloignés de leur cœur de métier traditionnel et ne sont pas contre le changement. Comme cela a été le cas pour les ingénieurs de l’Armement dans le secteur de l’aéronautique275 (Muller, 1989), les ingénieurs des Ponts et Chaussées et du GREF se sont progressivement intéressés à des aspects moins techniques de leur métier. Le contenu de leur formation a évolué et est davantage tourné vers le management public et les processus de concertation (Gervais, 2007). Au cours de leur carrière, ils peuvent accéder rapidement à des fonctions managériales et mettre les compétences techniques acquises au cours de leur formation au second plan, comme l’indique ce responsable de l’École nationale du génie rural, des eaux et forêts : « On dit que nos ingénieurs ne font plus de technique. Ils ont besoin de connaissances techniques au départ, mais après, très vite, on leur fait prendre des responsabilités dans les services et on les met dans un horizon de managers à 5 ou 10 ans. C’est un peu ça. C’est vrai pour un certain nombre d’entre eux, pas pour tous. »276 Les ingénieurs du GREF ont progressivement abandonné les missions d’ingénierie publique pour des postes pour lesquels ils ont davantage de responsabilités, mais aussi pour d’autres services en DDAF (services d’économie agricole et services de police de l’eau) ou pour les DIREN ou l’administration centrale. Sur les 1 351 ingénieurs qui composent le corps en 2008277, nous avons dénombré, à partir des organigrammes des DDAF, seulement 33 IGREF chefs d’un service « ingénierie publique ». Les ingénieurs les plus diplômés sont les premiers à quitter ce qui était à l’origine leur cœur de métier. Leur horizon de carrière À partir de la fin des années 1970, les ingéni de l’Armement ont dû épouser une culture commerciale, devenue dominante par rapport à la culture de l’ingénieur. 276 Entretien avec un responsable de l’ENGREF réalisé par S. Barone (novembre 2014). 277 Rapport annuel du CGAAER, 2008, p. 40.
275 Partie I. Les déterminants de la réforme de l’État s’étend bien au-delà de ce premier poste en service « opérationnel ». En outre, les IGREF fusionnent avec les ingénieurs des Ponts et Chaussées le 1er octobre 2009.
Le corps des ingénieurs des Ponts, des Eaux et Forêts (IPEF) est créé. On notera que la dénomination du corps exclut désormais le substantif de « Génie rural ». Le régime indemnitaire des IPEF est harmonisé à la hausse au moment de la fusion, au bénéfice des ex-IGREF. La fusion leur offre également de nouvelles opportunités de postes qui n’ont plus grand-chose à voir avec le génie rural. Les ex-IGREF tirent donc des avantages des réformes mises en place sous la présidence de Nicolas Sarkozy. Mais en dépit de la distance prise par les hauts fonctionnaires techniques avec leurs activités traditionnelles et malgré leur adhésion de principe à l’idée de réformer l’ingénierie publique, ils demeurent ses meilleurs partisans. C’est le cas, par exemple, du haut fonctionnaire technique qui, de mai 2007 à août 2008, a été « conseiller pour le développement durable » au cabinet du Premier ministre François Fillon. C’est lui qui signe le bleu de Matignon relatif à la suppression de l’ingénierie publique d’État. Fervent partisan de la mission, cet ingénieur des Ponts et Chaussées a le sentiment qu’il ne peut aller à l’encontre de cette décision qu’il désapprouve ouvertement, car trop en marge du processus décisionnel : « J’étais tout à fait favorable aux efforts faits pour [...] inscrire l’ingénierie publique dans le cadre du droit commun de la mise en concurrence. J’étais tout à fait favorable à ce que nous nous interrogions sur ce à quoi elle servait et à la repositionner sur des missions à plus forte valeur ajoutée. En revanche, le choix politique consistant à dire “ la réduction des effectifs va porter prioritairement sur ces missions, qui ne sont pas les missions prioritaires de l’État, ce ne sont pas des missions régaliennes”, je considérais que c’était une grave erreur. »278 Les ingénieurs des Ponts et Chaussées en étaient arrivés à concevoir que le privé pouvait faire aussi bien que l’État. Mais le rapport du ministère de l’Équipement du 22 janvier 2004 conforte l’hypothèse que les hauts fonctionnaires techniques, s’ils avaient pu être majoritaires au sein du premier cercle de réformateurs, auraient sans doute cherché à sauver la mission qui n’était pas condamnée à concurrencer les prestations du secteur privé : « d’abord, la réalité de la notion de concurrence doit être affinée : on voit davantage apparaître une coexistence et une complémentarité entre DDE et professionnels privés de l’ingénierie qu’une véritable compétition, même si ces derniers sont parfois très critiques quant à la multiplicité des postures de l’État, qui conduit selon eux à des distorsions de concurrence. Cependant, lorsqu’elles apparaissent et ce n’est pas systématique (certains 278 Entretien avec le conseiller pour le développement durable au cabinet du Premier ministre (mai 2007-août 2008) (février 2016). 239 Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale privés considèrent que “cela fonctionne mieux que si l’Équipement était absent”), ces réflexions semblent relever autant du discours convenu que de revendications réelles. Bien plus, il apparaît de véritables phénomènes de symbiose, de par l’intérêt qu’ont les professionnels privés de développer des coopérations durables avec l’Équipement : en témoigne ce paysagiste auquel le recours aux subdivisions pour surveiller les chantiers qu’il traite loin de sa base permet d’élargir son périmètre d’intervention. »279 Cet extrait montre bien
que les
Pont
s et Chaussées
restaient persuad
és qu’
une
complément
arité entre les deux types d’intervention pouvait exister, voire qu’elles pouvaient fonctionner
en symbios
e. La suppression de l’ingénierie publique d’État n’était donc pas, pour eux, justifiée. Mais l’argument d’une ingénierie privée qui fonctionne ieux
avec la présence de l’ingénierie publique d’État
que sans est
inaudible en 2008. 4.2.2. La culture privative des hauts fonctionnaires administratifs
Contrairement aux cercles de réformateurs précédents, le « premier cercle » de réformateurs de la RGPP se caractérise par une « culture privative » acquise essentiellement dans les écoles de commerce (Rouban, 2010) ou à Sciences Po, l’école s’étant rapprochée, depuis plusieurs années, du modèle des Business Schools (Garrigou, 2001). La plupart de ces réformateurs sont familiers des techniques de gestion du secteur privé et approuvent leur importation pour gérer l’administration publique. Il s’agit notamment d’inspecteurs des Finances ou de préfets, deux corps avec lesquels le président de la République a travaillé au cours ses fonctions de ministre de l’Intérieur (2002-2004 et 2005-2007) et des Finances (2004). Ce sont aussi des personnalités typiques de ce qu’A. Garrigou (2010) qualifie de « quatrième âge de la noblesse d’État » ou encore de « classe rapace » : des diplômés d’HEC puis de l’ENA qui rejoignent le monde des affaires avant d’intégrer, de manière temporaire souvent, la haute administration et qui définissent l’argent comme un objectif légitime en soi. La « classe rapace » va au-delà de la pratique du rétropantouflage, car elle privilégie la circulation régulière dans les deux sens. C’est le cas de Stéphane Richard, aujourd’hui président-directeur général d’Orange. Il a été, de 2007 à 2009, le directeur de cabinet des ministres de l’Économie Jean-Louis Borloo (mai-juin 2007) – avant qu’il devienne ministre de l’Environnement en juin 2007 – et Christine Lagarde (2007-2011).
279 Extrait du rapport du 22 janvier 2004 du ministère de l’Équipement, op. cit., p. 11-12. 240
Partie I. Les déterminants de la réforme de l’État
Diplômé d’HEC puis de l’ENA, il commence une carrière d’inspecteur des Finances avant de pantoufler pour prendre la direction du pôle immobilier de la Compagnie générale des eaux en 1992280. Par la suite, il devient directeur général adjoint de Veolia Environnement de 2003 à 2007 avant de s’engager dans la campagne présidentielle de N. Sarkozy. Au ministère de l’Agriculture, Judith Jiguet, actuelle directrice de la transformation chez ENGIE, est directrice adjointe du cabinet de Michel Barnier (2007-2009) de juin 2007 à juillet 2008, directrice de l’eau et de la biodiversité au ministère de l’Environnement de juillet 2008 à janvier 2009 puis directrice de cabinet du ministère de l’Environnement de janvier 2009 à novembre 2010. Elle ne vient ni d’HEC ni de l’ENA. Elle est agronome. Diplômée de l’ENGREF, elle fait partie du corps du GREF. Mais tout comme Stéphane Richard, avant de rejoindre les sommets de l’État au moment du lancement de la RGPP, elle travaillait dans le privé. Là aussi, il ne s’agit pas de n’importe quelle entreprise, mais de Véolia eau où elle a été chargée de mission de mars à juin 2007. Faut-il interpréter ces liens entre des personnalités du « premier cercle » des réformateurs et des grands groupes de l’eau au moment où se décide l’abandon de l’ingénierie publique d’État comme un simple concours de circonstances? Les auteurs de la réforme que nous avons rencontrés évacuent systématiquement l’idée selon laquelle les grands opérateurs tels que Véolia ou la SAUR281 auraient été impliqués dans la disparition de l’ingénierie publique d’État. S’ils ne sont peut-être pas responsables du retrait de l’État, ils en sont cependant les bénéficiaires directs. Alors qu’en termes de population, les opérateurs privés gèrent 72 % des services d’eau potable en 2006 (69 % pour les seuls Véolia, la Lyonnaise et la SAUR)282, le développement des outils d’appui à la régulation des services par l’État, dans un contexte de retour en régie283 et d’augmentation de la fréquence des renouvellements de contrat de délégation de services publics284, ne pouvait que gêner les délégataires :
280 Ancien nom de Véolia. Société d’Aménagement Urbain et Rural. 282 39 % pour Véolia Eau France, 19 % pour la Lyonnaise des Eaux, 11 % pour la SAUR, seulement 3 % pour les autres opérateurs privés et 28 % pour les opérateurs publics selon le rapport conjoint de la société d’études Bipe et de la Fédération professionnelle des entreprises de
l’eau intitulé « Les services collectifs d’eau et d’assainissement en France. Données économiques, sociales et environnementales », janvier 2008. Au moment de la réforme, le retour en régie de Marseille est jugé crédible, tandis que celui de Paris est engagé (Audette-Chapdelaine et al., 2009). De manière générale, le risque d’un retour en régie s’accroît au fur et à mesure des regroupements de collectivités accélérés par la loi n° 99-586 du 12 juillet 1999 relative au renforcement et à la simplification de la coopération intercommunale (Guérin-Schneider, Lorrain, 2003). Les grandes structures ont en effet plus souvent les moyens de recruter le personnel nécessaire pour monter une régie qu’une structure petite ou moyenne. 284 La loi n° 93-122 du 29 janvier 1993 relative à la prévention de la corruption et à la transparence de la vie économique et des procédures publiques a pour conséquence de faire passer la durée moyenne des 281 241
Chapitre 2. La suppression de l’ingénierie publique d’État : les contradictions d’une réforme d’inspiration néo-managériale
« Les grands groupes de l’eau et de l’assainissement [...] voyaient quand même d’un assez mauvais œil le fait qu’un réseau d’experts se développe avec des outils en capacité de pouvoir montrer que la gestion de tel service délégué n’était pas à la hauteur du coût, du prix pratiqué, etc. [...] Certains [fonctionnaires de l’État] menaient même une croisade [contre les grands groupes]. [Mais] il n’y a pas eu d’opposition [des concessionnaires]. Ils ont fait avec... même s’ils voulaient absolument contrôler ce qu’on y faisait à tel point qu’on avait un groupe de travail qui faisait un point annuel avec le représentant des délégataires, à l’époque le SPDE [Syndicat professionnel des distributeurs d’eau]. On faisait un point pour regarder comment, du côté des experts du ministère de l’Agriculture, on pouvait améliorer, sur tel concept technique, sur tel indicateur, comment on pouvait partager les informations et avoir la même définition derrière, de façon à ce que et les délégataires et l’expert de la DDAF en face parlent de la même chose et tiennent le même discours aux collectivités. Donc c’est allé assez loin quand même. »285 Comme cet ancien ingénieur de DDAF, nombre d’agents de terrain interprètent la réforme comme un cadeau fait aux grands groupes : « On commençait vraiment à s’assainir [après la ré de 1999]. On montait en compétence avec le logiciel GSP. On devenait trop puissants par rapport aux... La seule chose que je peux affirmer, c’est qu’on devenait un poil à gratter pour les grands groupes. Les ingénieurs dénonçaient les clauses abusives, participaient à la mise en place d’indicateurs à l’occasion de la loi sur l’eau, constituaient des interlocuteurs structurés face aux grands groupes. Aujourd’hui, il n’y a plus personne pour parler technique. Par ailleurs, c’était dans un contexte de retours en régie. Ils gagnaient moins sur les contrats d’eau. Ils ont fait des plans sociaux. Ils avaient à y gagner. »286 C’est le secrétaire général du ministère de l’Environnement, Didier Lallement, qui propose de supprimer l’ingénierie publique d’État pour participer à l’effort de réduction des dépenses publiques. Diplômé de l’Institut supérieur de gestion, une école de commerce privée reconnue par l’État, D. Lallement est sensible aux préceptes néo-managériaux comme celui de l’externalisation des missions pouvant être prises en charge par d’autres acteurs que l’État. Ayant derrière lui une carrière de préfet, il sait aussi les difficultés des services déconcentrés et garde en mémoire les questionnements interminables au sujet de la réorientation des missions d’ingénierie publique, voire de leur maintien. Le calendrier serré de la RGPP impose au secrétaire général de se prononcer sans tarder sur les solutions qu’il envisage pour réduire les dépenses de son ministère. L’abandon de l’ingénierie contrats de 14,8 ans à 11 ans en moyenne sur la décennie 1998-2008 et de passer de 17 % de contrats ayant une durée de plus de 20 ans à 0 %. Voir là-dessus le rapport de l’Observatoire des services publics d’eau et d’assainissement sur les « Impacts des procédures de mise en concurrence dites “Loi Sapin” sur les services d’eau et d’assainissement en 2007 et 2008 » de septembre 2012. ntretien
avec le de l’organisation des services et responsable du pilotage de l’activité d’ingénierie au ministère de l’Agriculture (2000-2005) (avril 2016).
286 Entretien informel avec un ex-ingénieur DDAF (septembre 2016).
| 39,749
|
16/hal.archives-ouvertes.fr-hal-01414060-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 2,096
| 3,485
|
La " frange épaisse " : un outil opératoire pour l'analyse et la conception Alia Ben Ayed, Alia Bel Haj Hamouda La « frange épaisse » : un outil opératoire pour l'analyse et la conception Alia
BEN AYED1, Alia BEL HAJ HAMOUDA CHERIF2 1. ERA, Ed. Sia, École Nationale d'Architecture et d'Urbanime de Tunis, Tu‐ nisie, [email protected] 2. SEA, Ed. Sia, École Nationale d'Architecture et d'Urbanime de Tunis, Tu‐ nisie, [email protected]
Abstract. This paper shares a pedagogical experiment undertaken as part of the initiation to the sensitive projectual. The method is based on the concept of limit, considered as a filter regulating the atmospheric interaction of the places it mark. Supported on experimentation in situ, the work aims to make more expert the ordinary perception of the student. It consists of uncovering the geometric properties of the limits that structure and configure analysis support spaces, and filter the effects they generate. The work led to the development of an intelligibility hybrid model that promotes building a directory of ambiantal references and their transposition in the design project.
Keywords: limit, porosity, experimentation, analysis, sensitive projectual
Introduction Dans les programmes d'enseignement, l'initiation à la projectuelle s'appuie fréquemment sur l'analyse. Cette analyse, qui a pour objet des dispositions ou des dispositifs architecturaux et urbains exemplaires, est censée faciliter transposition de références au cours du processus de conception. L'inflexion vers une initiation à une projectuelle d'ambiance implique le renouvellement des catégories d'analyse habituellement axées sur les attributs plastiques, convoquant essentiellement la modalité visuelle, pour intégrer d'autres dimensions qui affectent l'expérience sensible. Considérant l'expérience ordinaire1 de l'étudiant comme un prérequis, l'objectif pédagogique consiste à la rendre plus experte. Il s'agit de l'inciter à construire un modèle d'analyse lui permettant, non seulement, d'identifier ce qui dans la chose construite est à l'origine des effets ressentis, mais également d'envisager des formes de transposition possibles. L'initiation s'appuie sur l'expérimentation active en situation, ou en d'autres termes sur l'expérience provoquée méthodiquement dans le but de solliciter une plus grande attention de l'étudiant. 81 s'attachent à mettre au jour les effets de filtrage qui en découlent et d'évaluer leur part dans l'expérience vécue et ressentie. Le modèle de la « frange » La notion de limite est couramment convoquée en théorie de l'architecture mais également dans la pratique. La limite serait le caractère distinctif (le propre) de l'espace habité ; autrement dit du lieu. « L'architecture établit des limites et des passages pour configurer un monde alors que l'illimité (en grec l'"apeiron") est inhabitable » souligne Chris Younès2. Kevin Lynch, quant à lui, compte les limites (edges) parmi les cinq points du paysage urbain. Il les définit comme des éléments d'organisation, de structure, plus ou moins franchissables qui séparent et/ou relient une région d'une autre (Lynch, 1960). Avec pour origine greque peras, de peran, « traverser », la limite, prise dans le sens spatial, unit tout en séparant. Kant, qui définit le concept par opposition à celui de borne, considère « qu'en toute limite, il y a aussi quelque chose de positif (par exemple, la surface est la limite de l'espace corporel, et cependant elle est elle‐même un espace. La ligne est un espace qui est la limite de la surface, le point la limite de la ligne, mais c'est pourtant toujours un lieu dans l'espace), tandis que les bornes ne contiennent que des négations » (Kant, 1986, p. 138). Comme le suggère le philosophe, les « limites (pour des êtres étendues) supposent toujours un espace qui se trouve hors d'un lieu déterminé et l'entoure » (Kant, 1986, p.136). Pour lui, la limite qui évoque quelque chose au‐ delà, renvoie aux perspectives qu'elle ouvre. Elle révèle un lieu et le distingue d'un autre qui lui est contigu. Elle est constitutive du lieu qu'elle marque. Peter Von Meiss avance l'idée que, non seulement, la limite révèle un lieu en le distingu d'un autre, mais plus encore, elle configure elle‐même un lieu. Il souligne « Bâtir, c'est d'abord créer, définir et limiter une portion de territoire distincte du reste de l'univers et lui assigner un rôle particulier. La limite fait naître l'intérieur et l'extérieur. Tout lieu durable est marqué par des limites []. Nous nous référons aux limites pour savoir que nous sommes à l'intérieur "chez nous" sur cette terre. [] Toute relation entre deux lieux ou entre un intérieur et un extérieur procède de deux aspects de dépendance. Elle aménage à la fois séparation et liaison ou en d'autres termes, différenciation et transition, interruption et continuité, frontière et passage. de l'espace interne. Contrairement à « la transparence » (moderne) qui « a tué l'apparence », elle permet de réguler le passage de l'espace urbain à l'habitat. Limite entre intérieur et extérieur elle protège l'intimité du logement tout en le reliant à l'espace urbain. Au‐delà de l'analyse, cette notion, au croisement de « l'usage et de la forme », serait opératoire pour le projet. En effet, Michel Rémon soutient que « Le concept de façade épaisse ne concerne pas à proprement parler l'histoire de l'architecture : il interroge directement l'acte de projeter []. Il concerne globalement l'objet construit (il intéresse simultanément l'usage et la forme) en se superposant à ses dimensions techniques, fonctionnelles, économiques, culturelles etc. » (Rémon, 1978, p.7). À travers une prospection historique d'exemples de référence, l'auteur propose sous forme de schémas une série de dispositifs types exemplifiant la façade épaisse. Ces dispositifs sont catégorisés selon la forme (ou vocabulaire) et l'effet produit (ou capacité). Deux catégories d'effet sont identifiées. La première concerne le filtrage (décliné selon différents registres, solaire, thermo‐aéraulique, lumineux, visuel, de passage, etc.). La deuxième a trait à l'usage. La façade épaisse serait à l'origine de lieux favorisant la compétence usagère, l'appropriation de l'espace et l'échange. L'effet solaire est également mis en avant sans qu'un travail de catégorisation ne soit vraiment entrepris. Le travail de Michel Rémon reste empirique, mais il a l'avantage de révéler les propriétés de la façade épaisse ‐ autres que géométriques ou plastiques ‐ contribuant à l'expérience sensible. En ce sens, la production de Jacques Marmey, architecte en chef de la section d'études et travaux des services d'architecture et d'urbanisme de Tunisie 4 qui opérèrent durant la reconstruction d'après‐guerre, nous intéresse. En effet, nos recherches (Ben Ayed, 2014, Bel Haj Hamouda Cherif, 2015) révèlent le caractère « atmosphérique » de sa production. L'architecte revendique la référence à la gradation ambiantale spécifique qui caractérise l'architecture traditionnelle locale. Gradation qu'il réinterprète, en la transposant dans sa production moderniste, à travers un répertoire de « franges épaisses » poreuses. La « frange épaisse », entre‐ deux qui circonscrit en même temps qu'il relie l'ensemble construit à son environnement, aurait constitué pour Jacques Marmey un modèle « hybride » lui permettant de capturer et de transposer une ambiance. De l'analyse au projet sensible
Le travail prend appui sur des lieux ordinaires habituellement fréquentés par les étudiants (salons de thé, librairies, boutiques, etc.). L'exercice consiste d'abord à prendre le temps de s'imprégner des lieux, de les éprouver, de les ressentir. Cette phase préliminaire est suivie du relevé architectural classique qui aboutit à la production de documents graphiques conventionnels supports de l'analyse. Cette phase préliminaire constitue déjà une première réduction du phénomène. 4. Ces services regroupant une vingtaine d'architectes sous la direction de Bernard Zehrfuss, furent chargés, par le gouvernement de la France Libre, d'entreprendre dans de brefs délais la reconstruction de la Tunisie et la modernisation de ses équipements. L'analyse proprement dite se décline en trois phases. La première consiste à appréhender l'espace objet d'étude comme un ensemble de « franges » qui peuvent constituer une interface, un entre‐deux ou une limite configurant les différents sous‐ espaces. Cette phase (seconde réduction) est suivie d'une deuxième phase de classification des limites repérées uniquement selon des catégories géométriques et de position (horizontale/verticale/oblique), elles‐mêmes déclinées en sous‐ catégories (point, ligne, surface, volume, continus, discontinus, haut, bas, etc.). La troisième phase consiste à évaluer (sur une échelle de valeurs) la porosité de chaque limite au passage, à la lumière, à la vue, au son, etc. Cette analyse aboutit à une qualification ambiantale différenciée des sous‐espaces. L'exercice exige un effort de représentation (maquette, graphisme, cartographie, bande dessinées, etc.) à même d'exprimer le ressenti et d'en rendre compte de manière intelligible. Le recours à différents types de technique de représentation est encouragé. La première phase met au jour les différents sous‐espaces qui constituent l'ensemble et l'organisent. Elle révèle le caractère statique ou dynamique de cette organisation et son éventuelle flexibilité. La deuxième phase conduit à classer dans la même catégorie des dispositifs différents qui présentent la même géométrie. À titre d'exemple : les parois verticales sont classées dans la catégorie « surface verticale » indépendamment de la nature du matériau, de leur facture ou de leur transparence. Cette catégorie se décline elle‐même en sous‐catégories relatives à la position dans l'espace, aux proportions, à la mobilité, etc. Une paroi coulissante sera classée parmi les « surfaces verticales mobiles ». L'évaluation de la poros de chaque limite révèle les articulations (d'accessibilité, visuelles, sonores, etc.) entre les sous‐espaces et avec l'environnement immédiat. Elle révèle également la qualité des usages et de l'intersubjectivité qu'elle autorise. Cette schématisation, facilite l'abstraction, permet le dépassement de l'objet concret étudié et structure par là même le ressenti. L'expérimentation en appui sur différentes techniques de représentation s'avère elle‐même révélatrice des déterminants ambiantaux. Elle permet la construction d'un modèle intelligible (communicable à d'autres) et généralisable à d'autres situations. Elle favorise, ainsi, la mémorisation et initie la construction d'un corpus de références d'ambiances transposables. Si bien qu'à l'étape du projet, au lieu de se limiter à la reproduction mimétique de formes, l'étudiant ‐ motivé par une intention d'ambiance ‐ est amené à les réinterpréter en en multipliant les déclinaisons (fig 1.). Figure
1.
Emergence de projets : déclinaisons d'une catégorie de limite
(La limite horizontale par le toit)
Conclusion
Lieu de régulation des filtrages atmosphériques, des tensions et des négociations intersubjectives, la limite, d'autant plus qu'elle est épaisse, élaborée, de facture complexe, se révèle un outil opératoire pour une conception sensible. Expérimentée dans le cadre de l'initiation au projet sensible, elle a été étendue au projet de fin d'études avec d'autant plus d'efficacité qu'elle a été mise en oeuvre par des candidats plus experts et plus avertis. En tant que dispositif construit, qu'un entre‐deux à l'origine des interactions atmosphériques, la limite ouvre une perspective pour une projectuelle de l'ambiance non seulement dans le cadre de l'enseignement mais également dans celui de la pratique. Cette approche est particulièrement pertinente pour une pratique tunisienne, en mal de renouvellement, d'une part, et confrontée aux impératifs de confort et de préservation de l'environnement, d'autre part. Ce dispositif permet de reconsidérer l'éco‐conception encouragée par les autorités et la règlementation qui la régit, habituellement axée sur des normes de confort standardisé recommandant l'étanchéité du bâtiment. Dans ce sens un programme 85 de recherche, initié à l'ERA5, postule que les fanges épaisses et poreuses, qui caractérisent l'architecture traditionnelle, sont à l'origine de sa gradation ambiantale, et des vertus de durabilité dont elle a fait preuve. Ces franges pourraient en conséquence constituer une source d'inspiration fiable pour infléchir une éco‐conception plus adaptée au cadre local. Références
Bel Haj Hamouda Cherif A. (2015), L'Universel et le Singulier dans l'architecture ‐Le Modèle de Jacques Marmey, thèse de doctorat en architecture, SEA, ENAU Ben Ayed A. (2014) Le régime ambiantal dans l'architecture moderniste de Jacques Marmey ‐ Cas du Lycée de Carthage, thèse de doctorat en architecture, ERA, ENAU Lynch K. (1960), The image of the city, Cambridge, Mass, MIT Press Kant E. (1986), Prolégomènes à toutes métaphysique future, trad. Guillermit L., Paris, Vrin Rémon M. (1978), La façade épaisse, Paris, édition Copédith Von Meiss P. (1993), De la forme au lieu : Une introduction à l'étude de l'architecture, Lausannes, Presses polytechniques et universitaires romandes
Auteurs Alia Ben Ayed est architecte, maître‐assistante à l'Ecole d'Architecture et d'Urbanisme de Tunis et chercheure à l'ERA (http://erambiances.jimdo.com/). Ses thèmes de recherche concernent les modalités de reconstitution des ambiances architecturales et urbaines actuelles et celles des périodes passées. Elle s'intéresse en particulier aux conditions de leur transposition dans le projet pour la fabrication d'un cadre bâti sensible en phase avec les préoccupations les plus actuelles de préservation et de partage équitable des ressources naturelles. Alia Bel Haj Hamouda Cherif est architecte, assistante à l'Ecole d'Architecture et d'Urbanisme de Tunis. Elle est membre du groupe de recherche Sémiotique des Espaces Architecturés (S.E.A) qui vise la compréhension des phénomènes déterminant l'expression de l'architecture considérée en tant que système articulé et signifiant. 5. L'ERA est l'acronyme de l'Equipe de recherche sur les ambiances de l'Ecole nationale d'architecture de Tunis.
| 46,121
|
53856717e68185eccf1b349df56dfed4_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,015
|
Mortalité infantile
|
None
|
French
|
Spoken
| 7,425
| 9,833
|
Panorama de la santé 2015
LES INDICATEURS DE L’OCDE
Panorama de la santé
2015
LES INDICATEURS DE L’OCDE
Cet ouvrage est publié sous la responsabilité du Secrétaire général de l’OCDE. Les opinions
et les interprétations exprimées ne reflètent pas nécessairement les vues officielles des
pays membres de l’OCDE.
Ce document et toute carte qu’il peut comprendre sont sans préjudice du statut de tout
territoire, de la souveraineté s’exerçant sur ce dernier, du tracé des frontières et limites
internationales, et du nom de tout territoire, ville ou région.
Merci de citer cet ouvrage comme suit :
OCDE (2015), Panorama de la santé 2015: Les indicateurs de l’OCDE, Éditions OCDE, Paris.
http://dx.doi.org/10.1787/health_glance-2015-fr
ISBN 978-92-64-24513-6 (print)
ISBN 978-92-64-24594-5 (PDF)
Panorama de la santé
ISSN 1817-0005 (imprimé)
ISSN 1999-1320 (en ligne)
Les données statistiques concernant Israël sont fournies par et sous la responsabilité des autorités israéliennes
compétentes. L’utilisation de ces données par l’OCDE est sans préjudice du statut des hauteurs du Golan, de
Jérusalem-Est et des colonies de peuplement israéliennes en Cisjordanie aux termes du droit international.
Crédits photo : Couverture © Oleksiy Mark/Shutterstock.com ; Chapitre 3 : © Comstock/Jupiterimages ; Chapitre 4 :
© Comstock/Jupiterimages ; Chapitre 5 : © Randy Faris/Corbis ; Chapitre 6 : © Vincent Hazat/Photo Alto ; Chapitre 7 : © onoky
– Fotolia.com ; Chapitre 8 : © CREATAS/Jupiterimages ; Chapitre 9 : © Tetraimages/Inmagine ; Chapitre 10 : © RGtimeline/
Shutterstock.com ; Chapitre 11 : © Thinkstock/iStockphoto.com.
Les corrigenda des publications de l’OCDE sont disponibles sur : www.oecd.org/about/publishing/corrigenda.htm.
© OCDE 2015
La copie, le téléchargement ou l’impression du contenu OCDE pour une utilisation personnelle sont autorisés. Il est possible d’inclure des
extraits de publications, de bases de données et de produits multimédia de l’OCDE dans des documents, présentations, blogs, sites internet
et matériel pédagogique, sous réserve de faire mention de la source et du copyright. Toute demande en vue d’un usage public ou
commercial ou concernant les droits de traduction devra être adressée à [email protected]. Toute demande d’autorisation de photocopier une
partie de ce contenu à des fins publiques ou commerciales devra être soumise au Copyright Clearance Center (CCC), [email protected], ou
au Centre français d’exploitation du droit de copie (CFC), [email protected].
AVANT-PROPOS
Avant-propos
L
’édition 2015 du Panorama de la santé : Les indicateurs de l’OCDE présente les données
comparables les plus récentes sur les principaux indicateurs de la santé et des systèmes de santé des
34 pays membres de l’OCDE. Pour un sous-groupe d’indicateurs, elle contient aussi des données se
rapportant à des pays partenaires dont l'Afrique du Sud, le Brésil, la Chine, la Colombie, le Costa
Rica, la Fédération de Russie, l'Inde, l'Indonésie, la Lettonie et la Lituanie. Cette édition contient deux
nouveautés : une série de tableaux de bord présentés dans le chapitre 1 qui résument la performance
des pays de l’OCDE sur des indicateurs clés de santé et des systèmes de santé, et un chapitre spécial
sur les tendances récentes des dépenses pharmaceutiques parmi les pays de l’OCDE présentées dans
le chapitre 2.
La réalisation du Panorama de la santé n’aurait pas été possible sans le concours des
correspondants nationaux de la base de données de l'OCDE sur la santé, des spécialistes des comptes
de la santé et des experts chargés des indicateurs de la qualité des services de santé dans les 34 pays
membres de l'OCDE. L’OCDE les remercie vivement d’avoir fourni la plupart des données contenues
dans cette publication. L’OCDE exprime également sa gratitude à d’autres organisations
internationales, en particulier l’Organisation mondiale de la santé et Eurostat, dont certaines
données sont reprises ici, et à la Commission européenne, qui a apporté son soutien au travail de
développement des données.
Cette publication a été préparée par une équipe de la Division de la santé de l’OCDE sous la
coordination de Gaétan Lafortune. Le chapitre 1 a été rédigé par Gaétan Lafortune et Nelly Biondi ; le
chapitre 2 par Valérie Paris, Annalisa Belloni, David Morgan et Michael Mueller ; le chapitre 3 par
Nelly Biondi et Gaétan Lafortune ; le chapitre 4 par Marion Devaux, Nelly Biondi et Franco Sassi ; le
chapitre 5 par Gaétan Lafortune, Frédéric Daniel, Liliane Moreira et Michael Gmeinder ; le chapitre 6
par Gaétan Lafortune, Frédéric Daniel et Nelly Biondi ; le chapitre 7 par Marion Devaux, Gaétan
Lafortune, Michael Mueller, Marie-Clémence Canaud, Frédéric Daniel et Nelly Biondi ; le chapitre 8
par Ian Brownwood, Ian Forde, Rie Fujisawa, Nelly Biondi, Emily Hewlett, Carol Nader, Luke
Slawomirski et Niek Klazinga ; le chapitre 9 par David Morgan, Michael Mueller, Yuki Murakami et
Michael Gmeinder ; le chapitre 10 par Valérie Paris, Annalisa Belloni, David Morgan, Michael
Mueller, Luke Slawomirski et Marie-Clémence Canaud ; et le chapitre 11 par Tim Muir, Yuki
Murakami, Gaétan Lafortune, Marie-Clémence Canaud et Nelly Biondi. Cette publication a bénéficié
des commentaires et suggestions utiles de Francesca Colombo.
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
3
TABLE DES MATIÈRES
Table des matières
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
9
Guide du lecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
13
Chapitre 1. Tableaux de bord des indicateurs de la santé . . . . . . . . . . . . . . . . . . . . . . . ..
État de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Facteurs de risque pour la santé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Accès aux soins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Qualité des soins. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Ressources de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
19
21
22
23
24
24
Chapitre 2. Évolution des dépenses pharmaceutiques et défis futurs . . . . . . . . . . . . ..
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Un dollar sur cinq dépensé dans le domaine de la santé est consacré aux
produits pharmaceutiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
La part du financement privé des produits pharmaceutiques augmente . . . . . . ..
La croissance des dépenses pharmaceutiques est déterminée par l’évolution
des quantités, des prix et de l’éventail thérapeutique . . . . . . . . . . . . . . . . . . . . . . ..
Les déterminants de la croissance des dépenses varient d’un domaine
thérapeutique à l’autre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Le marché pharmaceutique face à de nouveaux défis . . . . . . . . . . . . . . . . . . . . . . ..
Conclusions et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
33
34
34
37
38
43
45
46
Notes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
47
47
Chapitre 3. État de santé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Espérance de vie à la naissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Espérance de vie selon le sexe et le niveau d’éducation. . . . . . . . . . . . . . . . . . . . . ..
Mortalité due aux maladies cardiovasculaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Mortalité due au cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Mortalité due aux accidents de transport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Suicide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Mortalité infantile. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Santé du nourrisson : faible poids à la naissance . . . . . . . . . . . . . . . . . . . . . . . . . . ..
État de santé général perçu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Incidence du cancer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
51
52
54
56
58
60
62
64
66
68
70
Chapitre 4. Déterminants non médicaux de la santé . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consommation de tabac chez les adultes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consommation d’alcool chez les adultes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consommation de fruits et de légumes chez les adultes . . . . . . . . . . . . . . . . . . . . ..
73
74
76
78
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
5
TABLE DES MATIÈRES
Obésité chez les adultes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Surpoids et obésité chez les enfants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consultations de médecins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Technologies médicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Lits d’hôpital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Sorties d’hôpital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Durée moyenne de séjour à l’hôpital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Chirurgies cardiaques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Remplacements de la hanche ou du genou . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Césariennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Chirurgie ambulatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
105
106
108
110
112
114
116
118
120
122
Chapitre 7. Accès aux soins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Couverture des soins de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Besoins en soins médicaux et dentaires non satisfaits. . . . . . . . . . . . . . . . . . . . . . ..
Dépenses de santé à la charge des patients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Répartition géographique des médecins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Délais d’attente pour une chirurgie élective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
125
126
128
130
132
134
Chapitre 8. Qualité des soins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Admissions évitables à l’hôpital. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Traitement du diabète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Prescriptions dans le cadre des soins primaires . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Mortalité après un infarctus aigu du myocarde (IAM). . . . . . . . . . . . . . . . . . . . . . . ..
Mortalité après un accident vasculaire cérébral . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Délais d’attente pour une opération après une fracture de la hanche . . . . . . . . . ..
Complications chirurgicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Traumatisme obstétrical . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Soins pour les personnes atteintes des troubles mentaux. . . . . . . . . . . . . . . . . . . ..
Dépistage, survie et mortalité du cancer du col de l’utérus . . . . . . . . . . . . . . . . . . ..
Dépistage, survie et mortalité du cancer du sein. . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Survie et mortalité du cancer colorectal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Programmes de vaccination des enfants. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Vaccination antigrippale des personnes âgées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Expériences des patients en soins ambulatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
137
138
140
142
144
146
148
150
152
154
156
158
160
162
164
166
Chapitre 9. Dépenses de santé et financement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
Dépenses de santé par habitant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
Dépenses de santé en proportion du PIB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
6
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
TABLE DES MATIÈRES
Dépenses de santé par fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Financement des dépenses de santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Dépenses par maladie et par âge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Dépenses en capital dans le secteur de la santé . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
174
176
178
180
Chapitre 10. Secteur pharmaceutique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Dépenses pharmaceutiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Financement des dépenses pharmaceutiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Pharmaciens et pharmacies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Consommation pharmaceutique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Part du marché des génériques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Recherche et développement dans le secteur pharmaceutique . . . . . . . . . . . . . . ..
183
184
186
188
190
192
194
Chapitre 11. Vieillissement et soins de longue durée. . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Évolution démographique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Espérance de vie et espérance de vie en bonne santé à 65 ans . . . . . . . . . . . . . . . ..
État de santé et incapacité autodéclarés à 65 ans . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Prévalence de la démence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Bénéficiaires de soins de longue durée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Aidants informels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Emploi dans le secteur des soins de longue durée . . . . . . . . . . . . . . . . . . . . . . . . . ..
Lits de soins de longue durée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Dépenses de soins de longue durée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
197
198
200
202
204
206
208
210
212
214
Annexe A. Informations complémentaires sur le contexte démographique
et économique, les dépenses de santé et leur financement . . . . . . . . . . . . . . . . . . 217
Suivez les publications de l’OCDE sur :
http://twitter.com/OECD_Pubs
http://www.facebook.com/OECDPublications
http://www.linkedin.com/groups/OECD-Publications-4645871
http://www.youtube.com/oecdilibrary
OECD
Alerts
http://www.oecd.org/oecddirect/
Ce livre contient des...
StatLinks2
Accédez aux fichiers Excel® à partir des livres imprimés !
En bas des tableaux ou graphiques de cet ouvrage, vous trouverez des StatLinks.
Pour télécharger le fichier Excel® correspondant, il vous suffit de retranscrire
dans votre navigateur Internet le lien commençant par : http://dx.doi.org, ou de cliquer
sur le lien depuis la version PDF de l’ouvrage.
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
7
RÉSUMÉ
Résumé
L
e Panorama de la santé 2015 présente des comparaisons internationales de l’état de santé
des populations et des performances des systèmes de santé dans les pays de l'OCDE, les
pays candidats et certains grands pays émergents. L’édition 2015 contient deux
nouveautés : une série d’indicateurs relatifs à la santé et aux systèmes de santé dans les
pays de l'OCDE présentés sous forme de tableaux de bord au chapitre 1, et un chapitre
spécial consacré à l’évolution récente des dépenses pharmaceutiques. Les principales
conclusions du Panorama de la santé 2015 sont présentées ci-après.
Les nouveaux médicaments vont pousser à la hausse les dépenses
pharmaceutiques à moins que les politiques ne s’adaptent
● Dans les pays de l'OCDE, les dépenses pharmaceutiques s’élevaient à 800 milliards USD
environ en 2013. Cela représente quelque 20 % du total des dépenses de santé en
moyenne si l’on ajoute à l’achat de médicaments au détail la consommation
hospitalière.
● Ces dernières années, la croissance des dépenses pharmaceutiques au détail a ralenti
dans la plupart des pays de l’OCDE, tandis que les dépenses hospitalières en produits
pharmaceutiques ont généralement augmenté.
● L’émergence de nouveaux médicaments de spécialité onéreux, visant des populations
restreintes et/ou des pathologies complexes, suscite des débats sur la durabilité et
l’efficience des dépenses pharmaceutiques.
L’espérance de vie continue de s’allonger mais des écarts persistent entre pays
et groupes socio-démographiques
● L’espérance de vie continue d’augmenter régulièrement dans les pays de l’OCDE, de 3 à
4 mois par an en moyenne. En 2013, l’espérance de vie à la naissance s’élevait à 80.5 ans
en moyenne, soit une hausse de plus de 10 ans depuis 1970. Le Japon, l’Espagne et la
Suisse se classent en tête d’un groupe de 8 pays de l’OCDE qui affichent désormais une
espérance de vie supérieure à 82 ans.
● Dans certains grands pays émergents comme l’Inde, l’Indonésie, le Brésil et la Chine,
l’espérance de vie a aussi augmenté au cours des dernières décennies et converge
rapidement vers la moyenne de l’OCDE. Les progrès sont nettement moins marqués
dans des pays comme l’Afrique du Sud (en raison surtout de l’épidémie de VIH/SIDA) ou
la Fédération de Russie (en raison principalement de l’augmentation des
comportements à risque chez les hommes).
● Dans les pays de l'OCDE, les femmes ont une espérance de vie supérieure de plus de 5
ans à celle des hommes, mais cet écart a diminué de 1.5 an depuis 1990.
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
9
RÉSUMÉ
● Les personnes les plus instruites ont, en moyenne, une espérance de vie supérieure de 6
ans à celle des individus les moins instruits. Cet écart est particulièrement prononcé
chez les hommes, puisqu’il atteint en moyenne près de 8 ans.
Le nombre de médecins et d’infirmiers n’a jamais été aussi élevé dans les pays
de l'OCDE
● Depuis 2000, le nombre de médecins et d’infirmiers augmente dans la quasi-totalité des
pays de l'OCDE, tant en valeur absolue que par habitant. Si la progression a été
particulièrement rapide dans certains pays qui comptaient moins de médecins en 2000
(Turquie, Corée, Mexique et Royaume-Uni par exemple), elle a également été prononcée
dans des pays qui affichaient déjà un nombre relativement élevé de médecins (Grèce,
Autriche et Australie).
● Cette croissance a été soutenue par une augmentation du nombre d’étudiants admis
dans les programmes nationaux de formation en médecine et en études d’infirmier,
ainsi que du nombre de médecins et infirmiers formés à l’étranger travaillant dans les
pays de l'OCDE pour répondre à des besoins à court terme.
● En moyenne dans les pays de l’OCDE, on compte plus de deux spécialistes pour un
généraliste. Dans plusieurs pays, la progression lente du nombre de généralistes suscite
des inquiétudes quant à l’accès aux soins primaires pour l’ensemble de la population.
Les dépenses de santé à la charge des patients représentent des obstacles à
l’accès aux soins
● Tous les pays de l’OCDE disposent d’une couverture d’assurance maladie universelle
pour un ensemble de services essentiels, à l’exception de la Grèce, des États-Unis et de
la Pologne. En Grèce, les chômeurs de longue durée et de nombreux travailleurs
indépendants ont perdu leur couverture maladie sous l’effet de la crise économique.
Néanmoins, depuis juin 2014, des mesures ont été adoptées afin que la population non
couverte puisse accéder aux médicaments sur ordonnance et aux services d’urgence.
Aux États-Unis, la part de la population non assurée est passée de 14.4 % en 2013 à 11.5 %
en 2014 grâce à la mise en œuvre de l’Affordable Care Act ; ce recul devrait se poursuivre
en 2015.
● La part des dépenses de santé restant à la charge des ménages peut créer des obstacles
à l’accès aux soins. En moyenne dans les pays de l'OCDE, 20 % environ des dépenses de
santé sont prises en charge directement par les patients, dans des proportions
comprises entre moins de 10 % en France et au Royaume-Uni et plus de 30 % au Mexique,
en Corée, au Chili et en Grèce. En Grèce, la part des dépenses de santé payées
directement par les ménages a augmenté de 4 points de pourcentage depuis 2009 suite
aux coupures dans les dépenses publiques.
● Par rapport aux ménages à revenu plus élevé, les ménages à faible revenu sont quatre à
six fois plus susceptibles de renoncer à des soins médicaux et dentaires pour des raisons
financières ou autres. Dans certains pays, comme la Grèce, la part de la population qui
déclare avoir renoncé à des soins médicaux a plus que doublé suite à la crise
économique.
Trop de vies sont encore perdues parce que la qualité des soins ne s’améliore
pas assez rapidement
● L’amélioration du traitement des
maladies potentiellement mortelles telles que les
crises cardiaques ou les AVC s’est traduite par une baisse des taux de mortalité dans la
10
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
RÉSUMÉ
plupart des pays de l'OCDE. En moyenne, le taux de mortalité après une hospitalisation
pour cause de crise cardiaque a reculé de 30 % entre 2003 et 2013, et de 20 % environ pour
les AVC. Malgré ces progrès, il y a encore de la marge dans plusieurs pays pour mettre en
place les meilleures pratiques dans le domaine des soins intensifs pour réduire encore
plus la mortalité suite à ces maladies cardiovasculaires aigues.
● La survie s’est aussi généralement améliorée pour de nombreux types de cancer, grâce à
un diagnostic plus précoce et à de meilleurs traitements. Par exemple, le taux de survie
relatif à cinq ans pour le cancer du sein et le cancer colorectal est passé de 55 % environ
en moyenne dans les pays de l’OCDE chez les patients diagnostiqués et suivis entre 1998
et 2003 à plus de 60 % chez les patients diagnostiqués et suivis dix ans plus tard (2008 à
2013). Toutefois, le taux de survie après un diagnostic pour différents types de cancer
reste toujours inférieur dans certains pays comme le Chili, la Pologne et le Royaume-Uni.
● La qualité des soins primaires s’est améliorée dans de nombreux pays, comme en
témoigne la diminution constante des hospitalisations évitables pour des maladies
chroniques. Néanmoins, les soins primaires pourraient encore être améliorés dans tous
les pays en vue de réduire encore les hospitalisations coûteuses, dans le contexte du
vieillissement de la population et de l’augmentation du nombre de personnes atteintes
d’une ou plusieurs maladies chroniques.
● Les pratiques en matière de prescriptions de médicaments constituent également des
indicateurs de la qualité des soins de santé. Par exemple, les antibiotiques ne doivent
être prescrits qu’en cas de besoin avéré, afin de limiter le risque de résistance
antimicrobienne. On observe un rapport de plus d’un à quatre parmi les pays de l’OCDE
s’agissant du volume total de la consommation d’antibiotiques, avec au bas de l’échelle
le Chili, les Pays-Bas et l’Estonie, et en haut la Turquie et la Grèce. La réduction du
recours inutile aux antibiotiques est un défi à la fois urgent et complexe, qui nécessite de
multiples initiatives coordonnées, comme la surveillance, la régulation et la formation
des professionnels et des patients.
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
11
GUIDE DU LECTEUR
Guide du lecteur
L
e Panorama de la santé 2015 présente des comparaisons des principaux indicateurs
relatifs à la santé et aux performances des systèmes de santé dans les 34 pays de l’OCDE,
ainsi que dans les pays candidats et les principaux pays partenaires, le cas échéant (Brésil,
Chine, Colombie, Costa Rica, Inde, Indonésie, Lettonie, Lituanie, Fédération de Russie et
Afrique du Sud). Sauf indication contraire, les données présentées dans cette publication
sont essentiellement extraites des statistiques nationales officielles.
Contenu de la publication
Cette nouvelle édition du Panorama de la santé présente deux nouveautés : 1) une série de
tableaux de bord au chapitre 1 résume, de façon claire et simple, les forces et faiblesses
relatives des pays de l’OCDE sur la base d’un ensemble sélectionné d’indicateurs relatifs à la
santé et aux performances des systèmes de santé, présentés dans les autres chapitres de cette
publication ; et 2) une attention particulière est prêtée au secteur pharmaceutique, avec
notamment une analyse des tendances récentes et des défis futurs en matière de gestion des
dépenses pharmaceutiques, au chapitre 2, ainsi qu’un nouveau chapitre sur le secteur
pharmaceutique (chapitre 10), qui combine à la fois des indicateurs présentés auparavant
dans d’autres chapitres et certains nouveaux indicateurs (en reprenant la présentation sur
deux pages utilisée dans la majeure partie de cette publication).
Le cadre général sur lequel s’appuient les indicateurs présentés dans cette publication
permet d’analyser les performances des systèmes de santé en se plaçant dans le contexte
global de la santé publique (graphique 0.1). Il repose sur le modèle adopté pour le projet de
l’OCDE sur les indicateurs de la qualité des soins de santé (Kelley et Hurst, 2006 ; Arah et al.,
2006). Ce cadre reconnaît que l’objectif final des systèmes de soins de santé est d’améliorer
l’état de santé de la population. Beaucoup de facteurs influent sur cet état de santé, parmi
lesquels certains, comme l’environnement physique ainsi que des facteurs individuels liés au
mode de vie et aux comportements, sont extérieurs aux systèmes de santé. Les performances
des systèmes de santé ont aussi évidemment une incidence sur l’état de santé de la
population. Ces performances comportent plusieurs dimensions, notamment le degré d’accès
aux soins et la qualité des soins dispensés. La mesure des performances doit aussi prendre en
compte les ressources financières requises pour atteindre ces objectifs en matière d’accès et de
qualité. Les performances des systèmes de santé dépendent du personnel de santé qui fournit
les services, et de la formation, des technologies et des équipements dont il dispose. Enfin, un
certain nombre de facteurs contextuels, qui influent également sur l’état de santé de la
population ainsi que sur la demande et l’offre de services de santé, sont également pris en
compte, notamment les caractéristiques démographiques et le développement économique et
social.
Le Panorama de la santé 2015 présente des comparaisons entre les pays de l’OCDE pour
chaque composante de ce cadre général.
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
13
GUIDE DU LECTEUR
Graphique 0.1. Cadre conceptuel de l’évaluation des performances des systèmes
de santé
Santé
(Chapitre 3)
Déterminants non médicaux de la santé
(Chapitre 4)
Performances du système de santé
Quelles sont les performances du système de santé ?
Quel est le degré de qualité des soins et d’accès aux services ?
Quel est le coût de ces performances ?
Qualité des soins
(Chapitre 8)
Accès aux soins
(Chapitre 7)
Dépenses de santé et financement
(Chapitre 9)
Ressources et activités des soins de santé
Personnel de santé
(Chapitre 5)
Activités de santé
(Chapitre 6)
Contexte démographique, économique et social
(Annexe A)
Source : Adapté de Kelley, E. et J. Hurst (2006)
Après les deux nouveaux chapitres présentant la série de tableaux de bords sur les
indicateurs et le chapitre spécial sur les dépenses pharmaceutiques, le chapitre 3 sur l’état
de santé met en évidence de fortes disparités entre les pays au niveau de l’espérance de vie,
de certaines des principales causes de mortalité, et d’autres indicateurs de l’état de santé
de la population. Ce chapitre inclut également des mesures des inégalités en termes d’état
de santé selon le niveau d’éducation et de revenu, pour des indicateurs clés tels que
l’espérance de vie et l’état de santé perçu.
Le chapitre 4 sur les déterminants non médicaux de la santé porte sur les modes de vie
et comportements qui ont une influence sur la santé, notamment la consommation de
tabac et d’alcool, l’activité physique, l’alimentation, et les problèmes de surpoids et
d’obésité chez les enfants et les adultes. Il est possible d’agir sur la majorité de ces facteurs
à l’aide de politiques de santé publique et de mesures de prévention.
Le chapitre 5 traite du personnel de santé. Il met l’accent sur l’offre de personnel
médical et infirmier dans les pays de l’OCDE, et sur leur rémunération. Il donne également
des informations sur l’évolution du nombre de nouveaux diplômés issus des programmes
de formation de personnel médical et infirmier, et comporte également de nouveaux
indicateurs sur les migrations internationales de médecins et d’infirmiers, mettant en
évidence le fait que le nombre et la part des médecins et infirmiers formés à l’étranger a
augmenté au cours de la dernière décennie dans la plupart des pays de l’OCDE.
Le chapitre 6 décrit certaines des caractéristiques principales des prestations de
services de santé dans les pays de l’OCDE, à commencer par le nombre de consultations
médicales (qui sont souvent le « point d’entrée » des patients dans les systèmes de santé),
les taux d’hospitalisation, les taux d’utilisation des différentes procédures chirurgicales et
14
PANORAMA DE LA SANTÉ 2015 © OCDE 2015
GUIDE DU LECTEUR
diagnostics, ainsi que le développement de la chirurgie ambulatoire pour des interventions
comme la cataracte et l’amygdalectomie.
Le chapitre 7 sur l’accès aux soins présente un ensemble d’indicateurs liés à l’accès
financier aux soins, l’accès géographique et la possibilité d’accéder aux soins dans des
délais satisfaisants (délais d’attente), ainsi que des indicateurs sur les besoins autodéclarés
insatisfaits de soins médicaux et dentaires.
| 48,714
|
4d8a3d29b79ca4f03ee1f7b2354bafd2_8
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
L'éducation aujourd'hui
|
None
|
French
|
Spoken
| 7,180
| 11,577
|
• Favoriser la collecte opportune, judicieuse et cohérente d’informations relatives à la
population scolaire issue de la diversité, afin de définir des politiques sur la base d’un
meilleur socle factuel.
Educating Teachers for Diversity: Meeting the Challenge, 2010, Chapitre 13
L’analyse réalisée par l’OCDE sur la performance des élèves immigrés propose des orientations
politiques pour venir à bout de leurs moins bons résultats :
• L’apprentissage de la langue du pays d’accueil doit être renforcé, aussi bien pour les
très jeunes enfants issus de l’immigration que pour les élèves qui arrivent plus tard,
avec une faible connaissance de la langue du pays d’accueil : Il ne faut pas compter sur la
capacité « naturelle » d’apprentissage des langues des jeunes enfants ou sur la supposition
qu’une maîtrise de base de la langue suffira. Les compétences linguistiques des parents,
particulièrement des mères, peuvent ne pas être suffisantes pour qu’ils aident les enfants
à faire leurs devoirs. Il faut une exposition intensive à la langue du pays d’accueil, à la
fois dans et hors de l’école, d’autant plus que, à l’époque de l’Internet, il est plus facile
que jamais d’accéder aux médias dans la langue du pays d’origine. Les parents doivent
être sensibilisés à cette problématique pour que l’environnement familial contribue à
l’amélioration des résultats.
• Il faut traiter le problème de la concentration des désavantages : Une option relativement
onéreuse consiste à investir lourdement dans les établissements d’enseignement
défavorisés en espérant que les mesures éducatives, qu’elles prennent la forme de meilleurs
enseignants, de classes plus réduites ou d’un soutien renforcé aux élèves, améliorent les
résultats, même dans des conditions non favorables. Un autre choix politique consiste
à réduire le degré de concentration des désavantages au travers de politiques relatives
au logement ou au choix de l’établissement, options difficiles à mettre en œuvre et
L’éducation aujourd’hui 2013 : La perspective de l’OCDE © OCDE 2013
123
Chapitre 7 • Équité et égalité des chances
controversées. Davantage de mixité sociale dans les établissements d’enseignement
contribuerait à améliorer significativement les résultats des élèves immigrés ou non
immigrés issus de milieux défavorisés. Toutes ces politiques doivent être mises en œuvre
suffisamment tôt, avant que les enfants immigrés prennent trop de retard.
Untapped Skills: Realising the Potential of Immigrant Students, 2012, Résumé ; Languages in a Global World:
Learning for Better Cultural Understanding, 2012
Promouvoir activement l’implication des parents et des communautés immigrés dans
l’éducation constitue un objectif important pour l’amélioration de l’équité : L’implication
parentale et communautaire des groupes et familles immigrés figure parmi les orientations
clés pour développer des attitudes et des conditions positives pour la réussite, et enrichir
les systèmes scolaires. Les orientations prometteuses déjà suivies et les programmes établis
dans divers pays et localités sont les suivants :
• Diffuser des informations appropriées au travers de divers canaux de communication.
• Établir des partenariats entre les établissements d’enseignement et les parents.
• Mettre en place des plateformes nationales pour les parents immigrés.
• Impliquer les parents dans l’éducation et l’accueil des jeunes enfants.
• Impliquer les parents dans l’enseignement en classe.
• Aider les parents immigrés et améliorer leurs compétences.
• Mettre en place des programmes de mentoring ethnique/d’exemplarité.
• Favoriser la participation des communautés locales afin d’offrir une chance aux jeunes
immigrants.
• Assurer un temps d’apprentissage supplémentaire et du soutien extra-scolaire.
Combler l’écart pour les élèves immigrés : Politiques, pratiques et performances, 2010, Chapitre 3
L’analyse du PISA 2009 sur l’égalité des chances et l’équité du rendement de l’apprentissage
suggère quelques options politiques, qui peuvent être combinées :
• Cibler les performances peu élevées, indépendamment du milieu socio-économique,
en visant les établissements peu performants ou les élèves peu performants en leur
sein, selon le degré de concentration de ces faibles performances dans les établissements.
• Cibler les enfants défavorisés, qu’il s’agisse de leur proposer des programmes de cours
spécifiques ou de leur accorder une aide financière ou des moyens pédagogiques
supplémentaires. Ces politiques peuvent être menées à l’échelle individuelle ou à
l’échelle collective, c’est-à-dire au sein des établissements, selon le gradient social interétablissements et le degré de ségrégation socio-économique entre les établissements.
• Cibler les enfants défavorisés afin de leur fournir une aide financière supplémentaire,
par exemple, la gratuité des transports scolaires ou de la cantine, ou l’octroi de prestations
aux élèves de familles pauvres.
124
© OCDE 2013 L’éducation aujourd’hui 2013 : La perspective de l’OCDE
Équité et égalité des chances • Chapitre 7
• Utiliser des politiques plus générales visant à élever les normes de compétence pour
tous les élèves, par exemple, en modifiant le contenu et le rythme des programmes de
cours, ou en augmentant la fréquence des cours de langue. Ce type de politiques sera
vraisemblablement plus pertinent dans les pays avec des gradients plus plats et moins de
variation dans les performances des élèves.
• Utiliser des politiques qui s’efforcent d’inclure les élèves marginalisés dans des classes
et des établissements non différenciés, en s’attachant à l’inclusion des élèves avec des
déficiences dans des classes de l’enseignement normal, plutôt que de les isoler dans des
classes ou des établissements d’enseignement spécialisé.
Résultats du PISA 2009 : Surmonter le milieu social : L’égalité des chances et l’équité du rendement de
l’apprentissage, 2010, Orientations pour l’action publique
L’éducation aujourd’hui 2013 : La perspective de l’OCDE © OCDE 2013
125
Chapitre 7 • Équité et égalité des chances
Références et autres ouvrages
à consulter
Della Chiesa, B., J. Scott et C. Hinton (éd.) (2012), Languages in a Global World: Learning for Better Cultural
Understanding, Centre pour la recherche et l’innovation dans l’enseignement, Éditions OCDE.
Field, S., M. Kuczera et B. Pont (2007), En finir avec l’échec scolaire : Dix mesures pour une éducation
équitable, Politiques d’éducation et de formation, Éditions OCDE.
OCDE (2006), Points forts des élèves issus de l’immigration : Une analyse comparative des performances et de
l’engagement des élèves dans PISA 2003, Éditions OCDE.
OCDE (2007), L’école face aux attentes du public : Faits et enjeux, Éditions OCDE.
OCDE (2008), Élèves présentant des déficiences, des difficultés et des désavantages sociaux : Politiques,
statistiques et indicateurs – Édition 2007, Éditions OCDE.
OCDE (2009), Top of the Class: High Performers in Science in PISA 2006, Éditions OCDE.
OCDE (2010), Educating Teachers for Diversity: Meeting the Challenge, Éditions OCDE.
OCDE (2010), Regards sur l’éducation 2010 : Les indicateurs de l’OCDE, Éditions OCDE.
OCDE (2010), Are the New Millennium Learners Making the Grade? Technology Use and Educational
Performance in PISA, Éditions OCDE.
OCDE (2010), Combler l’écart pour les élèves immigrés : Politiques, pratiques et performances, Éditions OCDE.
OCDE (2010), Résultats du PISA 2009 : Savoirs et savoir-faire des élèves : Performances des élèves en
compréhension de l’écrit, en mathématiques et en sciences (Volume I), Éditions OCDE.
OCDE (2010), Résultats du PISA 2009 : Surmonter le milieu social : L’égalité des chances et l’équité du
rendement de l’apprentissage (Volume II), Éditions OCDE.
OCDE (2010), Résultats du PISA 2009 : Les clés de la réussite des établissements d’enseignement : Ressources,
politiques and pratiques (Volume IV), Éditions OCDE.
OCDE (2010), Résultats du PISA 2009 : Tendances dans l’apprentissage : L’évolution de la performance des
élèves depuis 2000 (Volume V), Éditions OCDE.
OCDE (2011), Against the Odds: Disadvantaged Students Who Succeed in School, Éditions OCDE.
OCDE (2011), Quality Time for Students: Learning In and Out of School, Éditions OCDE.
OCDE (2011), PISA à la loupe, n° 2, mars 2011, Éditions OCDE.
OCDE (2012), Equity and Quality in Education: Supporting Disadvantaged Students and Schools, à paraître en
français, Éditions OCDE.
OCDE (2012), Untapped Skills: Realising the Potential of Immigrant Students, Éditions OCDE.
OCDE (2012), Regards sur l’éducation 2012 : Les indicateurs de l’OCDE, Éditions OCDE.
Werquin (2010), Reconnaître l’apprentissage non formel et informel : Résultats, politiques et pratiques,
Éditions OCDE.
126
© OCDE 2013 L’éducation aujourd’hui 2013 : La perspective de l’OCDE
8
Innovation et gestion des connaissances
On reconnaît depuis peu le rôle clé de la recherche et de la gestion des
connaissances en matière de pratiques et de politiques d’éducation. Le
volume de R-D pertinente sur l’éducation est assez faible, malgré les liens
évidents qui existent entre éducation et connaissance, et les ressources ont
fortement manqué pour développer et exploiter la base de connaissances
à la source de meilleures pratiques et de politiques efficaces. De même,
les changements introduits dans l’éducation le sont souvent pour des
considérations de court terme, alors que l’éducation est intrinsèquement
une mission de longue haleine. Enrichir la base de connaissances et stimuler
l’innovation ont été les objectifs des politiques mises en place dans un
certain nombre de pays. Les travaux de l’OCDE relatifs aux systèmes de R-D
sur l’éducation, à la gestion des connaissances, aux pratiques innovantes
et aux nouveautés systémiques, à la réflexion prospective, et à l’élaboration
des politiques et des pratiques à partir des réalités observées, ont été
nombreux. Les analyses ont aussi porté sur les compétences du XXIe siècle,
perçues comme fondamentales pour des sociétés innovantes et créatives.
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
127
Chapitre 8 • Innovation et gestion des connaissances
INTRODUCTION
L’innovation est depuis longtemps une priorité de l’OCDE : le Centre pour la recherche et
l’innovation dans l’enseignement (CERI) a été fondé il y a plus de 40 ans. Plus récemment,
ce Centre a été à la source du volet éducation de la Stratégie de l’OCDE pour l’innovation et
continue d’y contribuer. Les travaux de l’OCDE relatifs aux Apprenants du nouveau millénaire
ont procuré des informations sur le meilleur moyen pour les systèmes d’éducation d’utiliser
et de développer les compétences technologiques, notamment via des innovations
de haute technologie. La publication Résultats du PISA 2009 : Élèves en ligne complète
ces analyses en proposant une étude comparative des compétences numériques des
élèves. Le projet « Environnements pédagogiques novateurs » a rassemblé et analysé des
exemples d’innovations qui révolutionnent la manière dont l’apprentissage prend place, et
étudiera à l’avenir des stratégies efficaces d’expansion et de maintien des environnements
d’apprentissage du XXIe siècle.
On reconnaît depuis peu, mais pas assez, le rôle clé de la recherche et de la gestion des
connaissances en matière de pratiques et de politiques d’éducation. De nombreux pays ne
possèdent guère de capacités pour développer et exploiter la base de connaissances sur
laquelle fonder de meilleures pratiques et des politiques plus efficaces. En règle générale,
le volume de R-D pertinente sur l’éducation est assez faible, malgré les liens évidents qui
existent entre éducation et connaissance. De même, les changements introduits dans
l’éducation le sont souvent pour des considérations de court terme, alors que l’éducation est
intrinsèquement une mission de longue haleine. Les travaux de recherche et d’innovation de
l’OCDE dans le domaine de l’éducation réservent une place privilégiée aux systèmes de R-D
sur l’éducation, à la gestion des connaissances, à la réflexion prospective, et à l’élaboration
des politiques et des pratiques à partir des réalités observées.
PRINCIPALES CONSTATATIONS
Pour qu’une personne, une organisation, une économie ou une société soit innovante,
elle doit faire appel à une vaste gamme de compétences, et même des compétences
comportementales. Il apparaît dès lors fondamental de se demander avec quelle efficacité
les systèmes d’éducation développent ces compétences : L’innovation recouvre une
multitude d’activités, de l’invention à la découverte, de l’implémentation aux améliorations
mineures. Elle nécessite donc de nombreuses compétences de type différent :
• Compétences de base et littératie à l’ère du numérique : Il s’agit de la lecture, de l’écriture
et de la numératie, ainsi que les compétences nécessaires pour utiliser les technologies
numériques et pour accéder aux informations et les interpréter.
• Compétences scolaires : Langues, mathématiques, histoire, droit et sciences, ces
compétences s’obtiennent généralement au travers du système d’éducation et elles sont
applicables dans diverses situations.
• Compétences techniques : Les compétences spécifiques nécessaires pour occuper
un emploi, qui peuvent être à la fois des compétences scolaires ou des compétences
professionnelles, ainsi que la connaissance de certains outils ou processus.
128
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
• Compétences génériques : On considère communément qu’il s’agit de la capacité à
résoudre les problèmes, de la pensée critique et créative, de la capacité à apprendre,
et de l’aptitude à gérer la complexité. D’aucuns affirment que la capacité à résoudre
les problèmes est une compétence transmissible, mais d’autres sont d’avis qu’elle est
spécifique à une entreprise.
• Compétences comportementales : Elles comprennent la capacité de travailler en équipe
et dans des groupes hétérogènes, la communication, la motivation, la volition et l’initiative,
la capacité d’appréhender et de gérer ses propres émotions et comportements ainsi que
ceux des autres, l’ouverture multiculturelle et l’ouverture à l’innovation.
• Leadership : Lié aux compétences comportementales, le leadership est sous-tendu par
plusieurs compétences : le renforcement et l’orientation d’une équipe, le coaching et le
mentoring, le lobbying et la négociation, la coordination, l’éthique et le charisme.
La Stratégie de l’OCDE pour l’innovation : Pour prendre une longueur d’avance, 2010, Chapitre 3
Traditionnellement, les établissements d’enseignement utilisent mal les principaux
moteurs de l’innovation – connaissances issues de la recherche, instauration de réseaux,
restructuration modulaire, avancées technologiques : L’OCDE, dans ses travaux sur la
gestion des connaissances, a recensé quatre principales « pompes à innovation » :
• La pompe à innovation « basée sur les sciences » : Traditionnellement, l’éducation ne fait
pas un usage suffisant des connaissances provenant de la recherche et ce type d’usage se
heurte souvent à une résistance d’ordre culturel. Cet usage est de plus en plus ciblé dans
les réformes.
• La pompe à innovation « organisée de façon horizontale » : Les enseignants qui mettent
en commun leurs connaissances à travers des réseaux en retirent des avantages évidents,
mais il n’existe pas suffisamment d’incitations à le faire. Il y a lieu de resserrer les liens «
distendus » entre les différentes unités – l’enseignant, la salle de classe, l’établissement
d’enseignement – qui sont une caractéristique des systèmes scolaires.
• La pompe « structures modulaires » : Il s’agit en l’occurrence de construire un processus
complexe à partir de sous-systèmes qui peuvent être mis au point de façon indépendante,
mais fonctionnent ensemble. Le système d’éducation a l’habitude de travailler en modules,
mais la plupart du temps les établissements d’enseignement ou les enseignants opèrent
séparément les uns des autres.
• La pompe « technologies de l’information et de la communication » (TIC) : Les TIC sont
un puissant moyen de transformer l’éducation, mais leur utilisation dans les établissements
d’enseignement demeure insuffisamment répandue du fait, dans une certaine mesure,
que les principaux modes de fonctionnement administratifs et pédagogiques résistent au
changement.
Innovation in the Knowledge Economy: Implications for Education and Learning, 2004, Chapitre 2
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
129
Chapitre 8 • Innovation et gestion des connaissances
L’attention grandissante accordée aux résultats de l’éducation s’est traduite par une
explosion de différents types de données factuelles et, de la part des décideurs publics,
par une quête des résultats de la recherche en éducation : On se soucie plus des retombées
des investissements dans l’éducation et de la participation à des activités éducatives que
des moyens mis en œuvre pour les obtenir. Parmi les résultats figurent non seulement les
formations achevées et les diplômes et titres obtenus, mais aussi les qualifications et les
compétences acquises (évaluées dans les enquêtes du PISA, par exemple), l’accès au marché
du travail et la réussite professionnelle, ainsi que les retombées sociales plus vastes, telles
que l’état de santé et la vie civique, attribuables à l’éducation. On constate un formidable
enrichissement des données factuelles dont on dispose du fait de l’augmentation de la
quantité de tests et d’évaluations. De même que l’action publique s’intéresse de plus en
plus aux résultats réels de l’éducation, elle se préoccupe également des conclusions de la
recherche en éducation ; toutefois, nous ne savons pas grand-chose sur la façon dont ces
données sont utilisées ni sur l’efficacité de leur utilisation.
Evidence in Education: Linking Research and Policy, 2007, Chapitre 1
Pour la plupart des pays de l’OCDE, il est devenu clair que promouvoir l’utilisation de
données factuelles dans l’élaboration d’une politique n’équivaut pas à garantir leur
utilisation : Le temps et les moyens limités dont disposent les décideurs, la nécessité de se
fonder sur un consensus et de tenir compte de l’opinion publique et de l’interaction entre
différentes formes de connaissance lorsqu’il s’agit de définir la meilleure voie à suivre,
constituent un ensemble de limites qui freinent l’essor de la recherche. En outre, la capacité
analytique des organisations à utiliser des sources d’information complexes et multiples est
influencée par la culture institutionnelle et l’importance que l’on donne à l’exploitation de la
recherche (y compris le rôle des médias). Les gouvernements décidés à fonder l’élaboration
de leur politique sur les données de la recherche doivent d’abord faire tomber les barrières
individuelles et organisationnelles pour y parvenir.
« Exploring the Complex Interaction Between Governance and Knowledge in Education », Document de
travail de l’OCDE sur l’éducation, n° 67, 2012
En moyenne, les pays de l’OCDE consacrent près d’un tiers de leurs dépenses annuelles par
étudiant de l’enseignement supérieur à la R-D : En 2009, les dépenses de R-D représentaient,
en moyenne, 31 % des dépenses totales par élève de l’enseignement supérieur dans les
pays de l’OCDE. Ces niveaux présentent de fortes variations : de 40 % ou plus en Norvège,
au Portugal, en Suède et en Suisse, à moins de 15 % au Chili, en Corée, aux États-Unis et en
République slovaque. Même là où la R-D représente moins de 40 % des dépenses au titre
de l’enseignement supérieur, cela représente une somme considérable. Par exemple, au
Royaume-Uni, 39.5 % des dépenses correspondent à plus de 6 400 USD par élève. Les pays de
l’OCDE où les activités de R-D sont les plus élevées dans les établissements d’enseignement
supérieur (par exemple, le Portugal, la Suède et la Suisse) tendent à faire état de dépenses
plus élevées par étudiant que ceux où une grande part de la R-D se déroule dans d’autres
institutions publiques ou dans l’industrie, comme aux États-Unis.
Regards sur l’éducation 2012 : Les indicateurs de l’OCDE, 2012, Indicateur B1
130
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
Graphique 8.1.
Dépenses annuelles par étudiant au titre de la R-D dans l’enseignement tertiaire,
dans les pays de l’OCDE (2009)
USD 14 000
12 000
10 000
8 000
6 000
4 000
2 000
Chili
Mexique
Rép. slovaque
Corée
Pologne
Rép. tchèque
Slovénie
Nouvelle-Zélande
Estonie
Hongrie
Italie
États-Unis
Espagne
Moyenne OCDE
France
Autriche
Irlande
Portugal
Canada
Belgique
Allemagne
Pays-Bas
Australie
Finlande
Royaume-Uni
Norvège
Suisse
Suède
0
Source : OCDE (2012), Regards sur l’éducation 2012 : Les indicateurs de l’OCDE, Éditions OCDE. Tableau B1.2. Voir les notes à
l’annexe 3 (www.oecd.org/fr/edu/rse2012.htm).
Encadré 8.1. Technologies éducatives novatrices
Les technologies de l’information et de la communication (TIC) constituent une
source d’innovation pour les systèmes d’éducation : elles offrent un vaste assortiment
de nouveaux outils et instruments qui modifieront les fondements technologiques,
organisationnels et institutionnels du secteur éducatif. En règle générale, ce secteur
s’est montré assez lent dans l’innovation et la mise en œuvre de ces innovations dans un
but d’amélioration des pratiques, mais l’industrie des outils éducatifs est maintenant en
plein essor : on observe le développement d’entreprises de petite envergure spécialisées
dans l’invention et la commercialisation de technologies éducatives (principalement
fondées sur les TIC).
Nombre d’entreprises parmi les 50 premières du secteur qui disposent
d’un portefeuille dédié aux brevets éducatifs sur des marchés spécifiques (2010)
50
40
30
35
28
20
24
20
10
0
Enseignement
supérieur
Formation
en entreprise
Loisir
Établissements
d’enseignement (K-12)
Source : Foray, D. et J. Raffo (2012), « Business-Driven Innovation: Is It Making a Difference in Education?: An Analysis of
Patents », Documents de travail de l’OCDE sur l’éducation, n° 84, Éditions OCDE.
...
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
131
Chapitre 8 • Innovation et gestion des connaissances
L’analyse des brevets relatifs à l’éducation déposés ces 20 dernières années montre
clairement que les entreprises ont développé bien plus de technologies éducatives
hautement novatrices pendant cette période, généralement fondées sur les progrès
des technologies de l’information et de la communication.
Toutefois, la nouvelle industrie des outils éducatifs cible actuellement des marchés autres
que celui de l’enseignement primaire et secondaire formel. Une analyse approfondie
des 50 entreprises les plus importantes spécialisées dans les brevets pour des outils
éducatifs a révélé que 35 d’entre elles sont actives sur le marché de l’enseignement
supérieur, alors que 20 seulement s’adressent au secteur de l’enseignement scolaire.
Par rapport aux autres segments du marché, un nombre plus réduit d’entreprises
commercialise ses inventions dans le système de l’enseignement primaire et secondaire
formel. Ce marché ne répond peut-être pas aux conditions nécessaires pour attirer et
maintenir une forte activité commerciale. Le système d’éducation public pourrait-il
mieux exploiter les opportunités qu’offre l’expansion de l’industrie des outils éducatifs ?
Est-on suffisamment ouvert à l’innovation dans le secteur public, en termes de pratiques
de direction, de gouvernance et de culture, mais aussi de financement et de politique
d’allocation des ressources ? Voici quelques questions auxquelles les décideurs de
l’éducation doivent répondre.
Foray, D. et J. Raffo (2012), « Business-Driven Innovation: Is It Making a Difference in Education?: An
Analysis of Patents », Documents de travail de l’OCDE sur l’éducation, n° 84, 2012
Ces dix dernières années, de nombreux pays ont mis en œuvre des initiatives individuelles
liées à l’informatique dans l’éducation afin d’inculquer aux jeunes des compétences TIC, de
réduire la fracture numérique, et d’améliorer les pratiques et la réussite éducatives. L’analyse
réalisée par l’OCDE montre que :
• Malgré les sommes importantes investies, on en sait très peu sur le rapport coûtefficacité de ces initiatives. Chaque programme individuel doit être évalué dès l’entame
du processus de manière cohérente avec les objectifs et la conception de l’initiative.
• L’existence d’outils TIC ne modifie pas nécessairement les stratégies d’enseignement et
d’apprentissage, et l’utilisation d’outils TIC dans les initiatives individuelles est très variable.
Les enseignants ont besoin d’objectifs clairs et d’un soutien spécifique dans l’intégration
des technologies d’apprentissage dans des pratiques pédagogiques novatrices.
• Les évaluations indiquent un impact positif de l’informatique 1:1 sur les compétences
TIC et l’écriture, mais aussi une influence positive plus limitée sur les autres domaines
académiques tels que les mathématiques.
132
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
• Des initiatives 1:1 à grande échelle pourraient limiter la première fracture numérique
dans l’accès aux TIC à la maison et à l’école. La mondialisation des initiatives 1:1 pourrait
contribuer à réduire la fracture numérique entre les pays développés et les pays en
développement.
• Une seconde fracture numérique apparaît à l’école quand tous les apprenants ont accès
aux outils TIC. Il faut davantage d’informations sur la façon dont les TIC sont utilisées en
classe et leur impact sur la réussite.
« 1-1 in Education », Document de travail de l’OCDE sur l’éducation, n° 44, 2010
On observe un vaste développement et beaucoup d’activités dans le domaine des
ressources éducatives ouvertes (REO) : Les pays de l’OCDE sont principalement actifs dans
le domaine des REO en étant impliqués dans des projets ou des programmes spécifiques,
ou au travers d’initiatives prises par les établissements d’enseignement ou des individus
participants. La raison citée le plus fréquemment pour expliquer l’activité relative aux REO
est le souhait d’améliorer l’accès à des matériels d’apprentissage de qualité. Plusieurs pays,
particulièrement ceux avec un système fédéral, notent qu’ils ne disposent pas de suffisamment
de connaissances sur les activités REO de leurs établissements d’enseignement. Contrairement
à l’idée que les REO seraient principalement utilisées au niveau post-secondaire, elles sont en
fait utilisées à tous les niveaux d’enseignement.
« Open Educational Resources: Analysis of Responses to the OECD Questionnaire », Document de travail de
l’OCDE sur l’éducation, n° 76, 2012
Les travaux de l’OCDE relatifs aux Apprenants du nouveau millénaire ont procuré des informations
sur le meilleur moyen d’utiliser et de développer les compétences technologiques, notamment
via des innovations de haute technologie :
• L’économie et la société du savoir sont envahies et soutenues par la connectivité et la
technologie : Cela présente des implications importantes pour l’éducation, d’abord parce
que l’éducation doit inculquer aux jeunes générations l’ensemble des compétences que
l’économie du savoir exige, et ensuite parce que la connectivité joue un rôle crucial dans
les nouvelles formes de socialisation et de constitution de l’identité.
• Dans les pays de l’OCDE, une grande majorité de jeunes tire déjà parti de la connectivité,
à un âge de plus en plus précoce : Les jeunes disposent d’une gamme plus étendue de
technologies numériques à la maison, présentent un niveau plus élevé d’auto-efficacité
par rapport à Internet, réalisent davantage de tâches multiples, et utilisent Internet pour
vérifier des données et mener des activités formelles d’apprentissage.
• Être plus connecté n’est pas toujours positif ; ce qui importe, c’est ce que les jeunes font
pendant qu’ils sont connectés.
• Les attentes et les comportements des jeunes par rapport à l’utilisation de la technologie
ou à la connectivité dans l’éducation ne changent pas radicalement : Les apprenants ne
sont pas toujours à l’aise avec des usages novateurs de la technologie dans l’éducation
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
133
Chapitre 8 • Innovation et gestion des connaissances
formelle, malgré leurs pratiques sociales en dehors de l’éducation. Ils attendent bien de
la technologie qu’elle soit une source de participation, qu’elle rende l’école ou le travail
scolaire plus aisés, et qu’elle les rende beaucoup plus productifs du point de vue éducatif.
Connected Minds: Technology and Today’s Learners, 2012, Chapitre 8
ORIENTATIONS POUR L’ACTION PUBLIQUE
Dans sa réflexion sur les moyens à mettre en œuvre pour stimuler l’innovation, la Stratégie de
l’OCDE pour l’innovation concluait par un ensemble de principes sur les systèmes d’éducation
et de formation, et les lieux de travail innovants. Ils s’apparentent fortement aux conclusions
plus générales relatives aux politiques d’éducation et de formation :
• Doter les personnes de compétences pour l’innovation : S’assurer que les systèmes
d’éducation et de formation soient flexibles et qu’ils puissent s’adapter à la nature
changeante de l’innovation et aux exigences du futur. Les programmes et les pédagogies
doivent développer la capacité d’apprendre de nouvelles compétences et tirer tout le
bénéfice des technologies de l’information et de la communication.
• Améliorer les résultats scolaires : Une proportion considérable de jeunes ne terminent
pas le deuxième cycle de l’enseignement secondaire ou quittent l’école avec de faibles
compétences en littératie et numératie. Alors que les jeunes des pays de l’OCDE ont pour
ainsi dire tous accès à un minimum de 12 années d’éducation formelle, des mécanismes
sont indispensables pour s’assurer que les fondements éducatifs sont bien universels.
• Continuer à réformer les systèmes éducatifs de l’enseignement supérieur : L’État
devrait donner les moyens aux établissements d’enseignement supérieur de devenir
des catalyseurs d’innovation, notamment dans leur cadre local et régional. Même si
l’orientation doit être réservée à l’État, les établissements devraient disposer d’une bonne
marge de manœuvre. L’enseignement supérieur doit aussi conserver suffisamment de
diversité pour répondre aux besoins futurs dans le système d’innovation.
• Mettre en lien l’enseignement et la formation professionnels avec le monde du travail :
Ce principe exige un bon équilibre entre les compétences professionnelles spécifiques
qui répondent aux besoins des employeurs et les compétences génériques transmissibles
dont sont dotés les diplômés pour l’apprentissage tout au long de la vie et la mobilité.
• Donner aux femmes les moyens de jouer un plus grand rôle dans le processus
d’innovation : Bien que le niveau de formation des femmes ait tendance désormais
à dépasser celui des hommes, les systèmes de taxation et de prestations sociales, les
pratiques sur le lieu de travail et les systèmes de garde d’enfants constituent les facteurs
clés pour une plus grande implication des femmes sur le marché du travail et dans
l’innovation.
• Soutenir la mobilité internationale : Les politiques devraient soutenir les flux de savoir et
la création de liens durables entre pays. Les régimes de migration pour les personnes très
qualifiées devraient : être efficaces, transparents et simples ; permettre des mouvements à
court terme ; et soutenir les liens avec les nationaux à l’étranger.
134
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
• Encourager les lieux de travail innovants : L’implication des employés et la gestion efficace
du personnel contribuent à promouvoir la créativité et l’innovation ; les politiques de
l’emploi devraient encourager les modifications organisationnelles efficaces. L’éducation
et l’interaction entre les entreprises jouent un rôle clé dans leurs performances en matière
d’innovation ; les gouvernements peuvent aussi créer des institutions nationales afin de
soutenir des niveaux plus élevés d’éducation et de formation des employés.
La Stratégie de l’OCDE pour l’innovation : Pour prendre une longueur d’avance, 2010, Chapitre 3
Pour être efficaces, les prises de décision doivent être éclairées dans toute la mesure du
possible par des données probantes, étant entendu que les professionnels de l’éducation
travaillent dans un environnement riche en connaissances : Il faut améliorer les liens entre
la recherche, l’action gouvernementale et la pratique dans le domaine de l’éducation, et
poursuivre les efforts entrepris pour faire de l’éducation une profession riche en connaissances.
Une amélioration de l’accès à l’information diffusée sur la toile va de pair avec une diminution
du contrôle de la qualité, de même, dans la plupart des pays de l’OCDE, qu’avec une plus grande
décentralisation des pouvoirs de décision dans le secteur de l’éducation. Une information plus
fournie, une qualité moins contrôlée, un public plus éclairé, des acteurs publics plus divers,
autant d’éléments qui, plus que jamais auparavant, exigent de disposer de données probantes,
claires, fiables et facilement accessibles sur lesquelles baser les décisions, et de trouver des
mécanismes pour obtenir des réponses valables aux questions de fond urgentes.
Evidence in Education: Linking Research and Policy, 2007, Chapitre 1
Créer et encourager le courtage en connaissances dans le système d’éducation : Les
organismes de courtage revêtent une importance croissante pour favoriser le dialogue entre
les décideurs publics, les chercheurs et les professionnels de l’éducation, et pour renforcer les
moyens d’évaluer les solutions qui sont efficaces et celles qui ne le sont pas. Une première
étape consiste à créer une base de données à partir de recherches de qualité sur des thèmes
essentiels intéressant les décideurs publics, et à fixer des objectifs clairs pour conduire et
évaluer la recherche en éducation. Ces organismes de courtage ont entre autres pour
mission essentielle de procéder à l’échange de résultats en toute transparence et selon des
méthodes clairement définies, et d’actualiser et d’enrichir les synthèses les plus récentes sur
les principaux thèmes. Par ailleurs, tous les organismes devraient s’employer à communiquer
leurs informations à un public aussi large que possible afin d’introduire le changement selon
une approche à la fois descendante et ascendante.
Evidence in Education: Linking Research and Policy, 2007, Chapitre 1
Les gouvernements peuvent stimuler les investissements et la production de ressources
d’apprentissage numériques (RAN), aussi bien par des entreprises/maisons d’édition
commerciales que par les utilisateurs, en prenant les mesures suivantes :
• Proposer un capital d’amorçage, complété par des fonds de développement et de
transition : La production de RAN peut être stimulée en proposant des capitaux publics
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
135
Chapitre 8 • Innovation et gestion des connaissances
d’amorçage aux maisons d’édition, complétés par des financements et des soutiens aux
projets de développement qui contribuent à pérenniser les innovations une fois que le
financement initial est dépensé.
• Promouvoir la coopération entre les acteurs publics et privés pour le développement
des RAN : Les gouvernements peuvent encourager les entreprises à développer des
programmes de responsabilité sociétale des entreprises et à accroître la coopération
avec les autorités dans l’éducation. Les établissements d’enseignement et les autorités
éducatives locales nécessiteront des directives sur la meilleure méthode pour aborder
cette coopération.
Beyond Textbooks: Digital Learning Resources as Systemic Innovation in the Nordic Countries, 2009, Chapitre 7
Il est urgent d’appliquer une approche systémique de l’innovation dans l’EFP : En temps
de crise économique, l’innovation constitue un facteur clé de plus en plus prépondérant, non
seulement pour la croissance économique, mais aussi pour le bien-être collectif. Une étude
récente portant sur l’innovation systémique dans le secteur de l’EFP a suggéré les principes
d’orientation suivants :
• Développer une approche systémique de l’innovation dans l’EFP comme principe
d’orientation pour des politiques liées à l’innovation.
• Promouvoir un dialogue continu et fondé sur des éléments factuels avec les parties
prenantes de l’EFP.
• Construire une base de connaissances sur l’EFP qui soit à la fois bien organisée, formalisée,
facile d’accès et mise à jour, comme prérequis pour une intériorisation des bénéfices de
l’innovation.
• Compléter les investissements dans les innovations dans l’EFP avec les efforts de suivi et
d’évaluation nécessaires.
• Soutenir la recherche pertinente sur l’EFP en fonction des priorités nationales et lier ces
efforts avec l’innovation.
Working Out Change: Systemic Innovation in Vocational Education and Training, 2009, Chapitre 10
Créer une interface efficace entre l’innovation et les systèmes d’enseignement supérieur :
Cette interface est essentielle afin de tirer les bénéfices des investissements publics et privés
dans la recherche, et d’assurer la vitalité et la qualité des systèmes d’enseignement supérieur.
Parmi les orientations à suivre pour créer cette interface, on peut :
• Améliorer la diffusion du savoir au lieu de la commercialisation via des droits de
propriété intellectuelle (DPI) plus élevés : L’innovation n’est pas seulement un processus
de découverte destiné ensuite à être commercialisé ; la R-D résout souvent les problèmes
dans un parcours d’innovation. Dès lors, les capacités de diffusion et les activités de soutien
des établissements d’enseignement supérieur pourraient s’avérer aussi importantes que
les processus de découverte, et les politiques devraient donc envisager des méthodes et
des outils pour les promouvoir.
136
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
• Améliorer et élargir les canaux d’interaction, et encourager la collaboration
interinstitutionnelle : Les liens entre le secteur de l’enseignement supérieur et les
autres acteurs de la recherche et du système d’innovation, telles que les entreprises
et les organisations de recherche publique, doivent être développés activement afin
d’assurer la diffusion efficace du savoir. Lors de l’élaboration des programmes, ceux-ci
doivent prendre en compte l’implication des petites et moyennes entreprises de tous
les secteurs technologiques car celles-ci ont tendance à être sous-représentées dans les
collaborations.
• Encourager la mobilité entre la recherche et l’innovation : La mobilité intersectorielle
constitue l’un des principaux outils pour la diffusion du savoir ; la mobilité entre entreprises,
établissements d’enseignement supérieur et organismes de recherche publique devrait
être activement promue.
Tertiary Education for the Knowledge Society: Volume 2, 2008, Chapitre 7
Les travaux de l’OCDE sur les TIC et l’éducation ont généré des pistes politiques pour les
systèmes d’éducation qui cherchent à adapter à grande échelle les innovations fondées sur
la technologie afin d’améliorer l’apprentissage, notamment en matière de connaissances :
• Développer une approche systémique des connaissances sur l’innovation technologique,
avec un cadre évolutif supportant les innovations technologiques, du haut vers le bas et du
bas vers le haut, et le développement des capacités.
• Favoriser un dialogue continu et fondé sur les faits concernant l’innovation avec les
parties prenantes actives sur le terrain : Les débats politiques doivent être fondés sur
des faits, en présupposant que toutes les parties prenantes partagent un minimum de
capacité pour s’y investir.
• Élaborer une base de connaissances bien organisée, aisément accessible et actualisée
sur la technologie dans l’éducation comme prérequis d’une internalisation réussie
des bénéfices de l’innovation : Les équipements ou mécanismes existants peuvent être
utilisés, ou de nouvelles mesures prises, pour refléter la priorité accrue de l’innovation
fondée sur la technologie dans l’éducation, tels que des centres de recherche dédiés, des
réseaux ou des appels d’offre prioritaires.
• Compléter les investissements dans les innovations fondées sur la technologie par
les contrôles et les évaluations nécessaires : La gouvernance et la responsabilisation
publique imposent des mécanismes et des procédures afin d’envisager les innovations du
haut vers le bas et du bas vers le haut d’un œil critique. Les évaluations empiriques peuvent
contribuer à sous-tendre les décisions relatives au développement ou à la diffusion des
innovations, instillant une culture d’innovation axée sur les résultats, en veillant à en avoir
pour son argent, et en obtenant un feedback sur les mesures politiques prévues pour
encourager l’innovation.
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
137
Chapitre 8 • Innovation et gestion des connaissances
• Soutenir les études pertinentes sur la technologie dans l’éducation en fonction des
priorités nationales, et établir un lien entre ces efforts et l’innovation : Les systèmes
d’éducation pourraient tirer un grand profit d’un système national de recherche sur la
technologie dans le domaine de l’éducation.
• Assurer que les innovations fondées sur la technologie ne renforcent pas les fractures
numériques existantes ou n’en créent pas de nouvelles : L’utilisation des ordinateurs
amplifie les compétences académiques des élèves et ces compétences sont liées à leur
capital social, culturel et économique. Cela devient d’autant plus sérieux que l’accès aux
ordinateurs et aux connexions Internet à large bande est devenu quasi-universel.
• Harmoniser ou intégrer les stratégies relatives aux innovations fondées sur la
technologie dans les politiques nationales de qualité et d’équité dans l’éducation :
Disposer d’une stratégie technologique séparée pour l’éducation peut être précieux pour
marquer son importance, mais pour être durable, elle devra être harmonisée avec les
politiques nationales de qualité et d’équité dans l’éducation, et devenir un moyen en vue
d’un bon apprentissage plutôt qu’une fin en soi.
Inspired by Technology, Driven by Pedagogy: A Systematic Approach to Technology-Based School Innovations,
2010, Conclusion
138
© OCDE 2013 L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE
Innovation et gestion des connaissances • Chapitre 8
Références et autres ouvrages
à consulter
Fazekas, M. et T. Burns (2012), « Exploring the Complex Interaction Between Governance and Knowledge
in Education », Documents de travail de l’OCDE sur l’éducation, n° 67, Éditions OCDE.
Foray, D. et J. Raffo, J. (2012), « Business-Driven Innovation: Is It Making a Difference in Education?: An
Analaysis of Patents », Documents de travail de l’OCDE sur l’éducation, n° 84, Éditions OCDE.
Hylén, J. et al. (2012), « Open Educational Resources: Analyse of Responses to the OECD Country
Questionnaire », Documents de travail de l’OCDE sur l’éducation, n° 76, Éditions OCDE.
OCDE (2004), Innovation in the Knowledge Economy: Implications for Education and Learning,
Éditions OCDE.
OCDE (2007), Evidence in Education: Linking Research and Policy, Éditions OCDE.
OCDE (2008), Tertiary Education for the Knowledge Society: Volume 2, Éditions OCDE.
OCDE (2009), Working Out Change: Systemic Innovation in Vocational Education and Training,
Éditions OCDE.
OCDE (2009), Beyond Textbooks: Digital Learning Resources as Systemic Innovation in the Nordic Countries,
Éditions OCDE.
OCDE (2010), La Stratégie de l’OCDE pour l’innovation : Pour prendre une longueur d’avance, Éditions OCDE.
OCDE (2010), Inspired by Technology, Driven by Pedagogy: A Systematic Approach to Technology-Based
School Innovations, Éditions OCDE.
OCDE (2011), Résultats du PISA 2009 : Élèves en ligne : Technologies numériques et performance (Volume VI),
Éditions OCDE.
OCDE (2012), Connected Minds: Technology and Today’s Learners, Éditions OCDE.
OCDE (2012), Regards sur l’éducation 2012 : Les indicateurs de l’OCDE, Éditions OCDE.
Valiente, O. (2010), « 1-1 in Education: Current Practice, International Comparative Research Evidence
and Policy Implications », Documents de travail de l’OCDE sur l’éducation, n° 44, Éditions OCDE.
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
139
Pour plus d’informations
sur les travaux de l’OCDE
dans le domaine de l’éducation
Écrivez-nous
Direction de l’éducation
OCDE
2, rue André Pascal, 75775 Paris Cedex 16, France
[email protected]
Suivez-nous sur
Educationtoday : http://oecdeducationtoday.blogspot.fr/
YouTube : www.youtube.com/EDUcontact
Twitter : http://twitter.com/OECD_Edu
Slideshare : www.slideshare.net/OECDEDU
Comment postuler
Les vacances d’emploi actuelles sont ouvertes aux ressortissants des pays
membres de l’OCDE. Elles sont publiées sur le site www.oecd.org/hrm
Par ailleurs, la Direction de l’éducation de l’OCDE travaille avec un réseau
de consultants extérieurs, d’universités et d’instituts de recherche.
Les appels d’offres sont publiés sur le site www.oecd.org/pcm
Commandez nos publications
visitant la librairie en ligne de l’OCDE : www.oecd.org/bookshop
iLibrary En
ou en envoyant un courriel à [email protected]
Constituez votre documentation sur l’éducation et téléchargez-la au format pdf :
OCDE travaux dans le domaine de l’éducation : http://oecdmybrochure.org/
Consultez gratuitement des rapports et des statistiques sur l’éducation
www.oecd.org/education pour une sélection de rapports et de données
de l’OCDE à télécharger gratuitement
www.oecd.org/edu/documentsdetravail pour une sélection de documents
de travail sur l’éducation
www.pisa.oecd.org pour les données du Programme international pour le suivi
des acquis des élèves (PISA)
direct
Grâce à notre service d’information e-mail gratuit, vous serez informé
en toute priorité de nos nouveautés : www.oecd.org/login
L’Éducation aujourd’hui 2013 : La Perspective de l’OCDE © OCDE 2013
141
ORGANISATION DE COOPÉRATION
ET DE DÉVELOPPEMENT ÉCONOMIQUES
L’OCDE est un forum unique en son genre où les gouvernements oeuvrent ensemble pour
relever les défis économiques, sociaux et environnementaux que pose la mondialisation. L’OCDE est
aussi à l’avant‑garde des efforts entrepris pour comprendre les évolutions du monde actuel et les
préoccupations qu’elles font naître. Elle aide les gouvernements à faire face à des situations nouvelles
en examinant des thèmes tels que le gouvernement d’entreprise, l’économie de l’information et les
défis posés par le vieillissement de la population. L’Organisation offre aux gouvernements un cadre
leur permettant de comparer leurs expériences en matière de politiques, de chercher des réponses
à des problèmes communs, d’identifier les bonnes pratiques et de travailler à la coordination des
politiques nationales et internationales.
Les pays membres de l’OCDE sont : l’Allemagne, l’Australie, l’Autriche, la Belgique, le Canada,
le Chili, la Corée, le Danemark, l’Espagne, l’Estonie, les États-Unis, la Finlande, la France, la Grèce,
la Hongrie, l’Irlande, l’Islande, Israël, l’Italie, le Japon, le Luxembourg, le Mexique, la Norvège,
la Nouvelle‑Zélande, les Pays-Bas, la Pologne, le Portugal, la République slovaque, la République tchèque,
le Royaume-Uni, la Slovénie, la Suède, la Suisse et la Turquie. L’Union européenne participe aux travaux
de l’OCDE.
Les Éditions OCDE assurent une large diffusion aux travaux de l’Organisation. Ces derniers
comprennent les résultats de l’activité de collecte de statistiques, les travaux de recherche menés
sur des questions économiques, sociales et environnementales, ainsi que les conventions, les
principes directeurs et les modèles développés par les pays membres.
ÉDITIONS OCDE, 2, rue André-Pascal, 75775 PARIS CEDEX 16
(96 2012 02 2P) ISBN 978-92-64-18683-5 – No. 60400 2013
L’éducation aujourd’hui 2013
La Perspective de l’OCDE
Qu’est-ce que l’OCDE a à dire sur la situation actuelle de l’éducation ? Quels sont
les principaux messages de l’OCDE concernant l’éducation et l’accueil des jeunes enfants,
les politiques relatives aux enseignants et l’enseignement supérieur ? Qu’en est-il
des performances des élèves, des dépenses d’éducation et de l’équité dans l’éducation ?
Les travaux de l’OCDE sur ces thèmes importants de l’éducation et d’autres ont été
compilés sous la forme d’une ressource unique et accessible.
| 6,240
|
57/dumas.ccsd.cnrs.fr-dumas-01528930-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 3,922
| 6,741
|
VALIDITE
La version française de l'EAI mesure effectivement la dépendance à l'exercice physique. La construction de l'EAI en version française est solide : - L'analyse factorielle montre que les 6 items de l'EAI évaluent une seule dimension qui s'apparente au concept de dépendance à l'exercice physique décrit par Griffiths. - Les indices d'ajustement sont satisfaisants, comparables à ceux obtenus dans cinq autres pays (21). - L'analyse des corrélations montre que les items sont corrélés par paire. Il n'y a pas de redondance entre les items. - Les résultats obtenus sont cohérents avec les caractéristiques cliniques des individus dépendants à l'exercice physique. Selon les résultats de nombreuses études (11,23–25,38) il y a une relation entre un temps total de pratique et le score obtenu aux échelles de mesure de dépendance à l'exercice physique (EAI, EDQ, EDS-R) : plus le temps de pratique est important, plus le score est élevé. L'analyse des caractéristiques des individus révèle que les personnes pratiquant plus de 5 heures d'exercice physique par semaine sont significativement plus à risque de dépendance que ceux qui pratiquent moins de 2.5 heures. En 2002, Hausenblas a montré que les individus à risque de dépendance pratiquent des activités physiques plus intenses que le groupe des personnes non dépendantes (6). Dans cette étude, l'intensité de l'exercice physique a été évaluée par l'utilisation du Leisure Time of Exercise Questionnaire. Lors de la validation de l'EAI en espagnol, il a été retrouvé une forte association entre l'intensité de l'exercice physique et le risque de dépendance à l'exercice physique (24). L' é de l'exercice physique étant classée selon trois catégories définies, les sujets évaluent eux – même l'intensité de leur pratique. L'auto-évaluation peut être soumise aux biais de l'estime de soi et de désirabilité sociale. 46 Bien que le résultat ne soit pas statistiquement significatif, nous retrouvons également que par rapport aux patients ayant une faible intensité de pratique, ceux ayant une forte intensité on plus souvent un score à l'EAI ≥ à 24. Dans notre étude, nous avions décidé de classer l'intensité selon les sports pratiqués. Il s'avère que cette répartition pourrait impliquer un biais de classement. Par exemple, les activités « footing » et « course à pied » sont classées en forte intensité. Or, selon la vitesse de course, le profil du coureur et son niveau d'entrainement, cette activité peut se révéler être ou modérée ou très forte en intensité. PREVALENCE
L'étude de la prévalence des personnes à risque de dépendance à l'exercice physique n'était pas l'objectif de notre travail. Néanmoins, les résultats de notre étude menée de manière prospective sur un échantillon de sportifs amateurs appartenant à la population générale, nous fournissent une estimation de ce taux : 17.45% des personnes obtenaient un score à l'EAI ≥ à 24. Cette prévalence est significativement supérieure à ce qui est constaté dans la littérature. Dans de précédentes publications, les taux de prévalence estimés par l'EAI s'échelonnent de 3% à 8.5% (21). Toutefois, les populations étudiées sont généralement constituées d'étudiants universitaires. Une seule étude a utilisé l'EAI parmi un échantillon de personnes représentatives de la population 47 générale (34). Le risque de dépendance à l'exercice physique a été estimé à 3.2% chez les sportifs réguliers hongrois. Il est nécessaire de prévoir des études complémentaires sur des échantillons représentatifs de la population générale française pour connaître le taux de la prévalence de la dépendance à l'exercice physique dans notre pays et pouvoir ainsi nous situer par rapport aux autres pays européens. Pour expliquer que notre étude établisse un taux de prévalence élevé, reportons nous à nos critères d'inclusion : notre note d'information aux médecins et patients (annexes : VII.B page 55 et VII.C page 56) précise que le test ne concerne que les patients demandant la délivrance d'un certificat médical de non-contre- indication à la pratique de leur(s) discipline(s). Ce critère sélectionne donc une population de sportifs amateurs particulièrement motivés puisque ces certificats sont obligatoires à l'inscription en club, à l obtention d'une licence, mais surtout pour participer aux compétitions amateurs. Il n'est donc pas surprenant que les sujets à risque d'addiction au sport y soient plus représentés que dans la population générale. En d'autres termes, notre taux de prévalence établi à 17,45% signifierait que le cinquième des patients sollicitant un certificat médical pour leur activité sportive serait à risque de dépendance à l'exercice physique. A la lumière de ce constat, nous insistons sur l'importance d'une consultation approfondie du patient sportif dans sa globalité physique et psychique. Le médecin généraliste doit avoir une vigilance accrue en particulier si ce patient sportif n'a que très rarement recours à lui. LIMITES
La période de recrutement pour notre étude était prévue a priori de mi-octobre 2015 à midécembre 2015. Au cours du mois de décembre, les médecins nous ont fait part de leurs difficultés d'inclusion en cette période de l'année. C'est pourquoi nous avons prolongé la période de recrutement de 2 mois. 48 Au cours de la période étudiée, les besoins de certificats médicaux concernaient peut-être plus spécifiquement les inscriptions aux compétitions sportives. Il est donc possible que les compétiteurs soient surreprésentés dans notre échantillon comparativement à une population dont les certificats médicaux ont pour but une pratique sportive de loisir. En effet, les inscriptions dans les clubs sportifs se font généralement au moment de la rentrée scolaire, au cours des mois d'aout, septembre et octobre. Il serait donc intéressant de prévoir le recrutement à cette époque lors de prochaines études. Les conditions de remplissage du questionnaire dans le cadre du retest n'ont pas été optimales. D'une part l'intervalle de temps entre les deux passations a été de l'ordre de 3.5 mois, ce qui est beaucoup trop long dans le cadre de l'évaluation d'une échelle psychiatrique. D'autre part, les consignes n'ont pas été rappelées oralement au moment de remplir le questionnaire. Enfin, le sujet a pu se trouver dans un état de concentration différent lors des deux remplissages au cabinet ou à domicile. Dans ces conditions, le choix dans la cotation de ses réponses a pu également être influencé par l'entourage (médical ou familial). En conséquence, il semblerait qu'une adaptation méthodologique concernant la standardisation des conditions du retest permettrait d'améliorer la fidélité de notre échelle. VI. Conclusion 50
Il est admis que la pratique d'une activité sportive régulière est bénéfique pour la santé physique et mentale. Cependant quelques personnes ont une pratique excessive de l'exercice physique, entrainant blessures physiques et mal-être psychique. Dans l'objectif de dépister rapidement et facilement les personnes à risque de dépendance à l'exercice physique, Terry et ses collaborateurs ont développé l'Exercice Addiction Inventory. Ce questionnaire présente plusieurs avantages sur les autres échelles existantes, en particulier si on le place dans la perspective d'une utilisation dans un contexte de soins de santé primaires : - Basé sur les 6 composantes essentielles des addictions comportementales, il présente une approche multidimensionnelle de la dépendance à l'exercice physique. - Présenté sous forme synthétique, il est facile d'utilisation. - Les résultats obtenus sont comparables à ceux fournis par des échelles plus complexes. - Le score total est facile à calculer. - Le seuil au-delà duquel les personnes sont identifiées à risque de dépendance est clairement établi. - Présentant de bonnes propriétés psychométriques, il est reconnu comme valide et fiable en contexte anglophone. Constatant l'absence d'un outil aux qualités comparables utilisable en contexte francophone, nous nous sommes attachés à élaborer une version française de l'EAI et à en étudier les propriétés psychométriques. Les résultats présentés dans notre étude suggèrent que l'Exercise Addiction Inventory tel que nous l'avons soumis puisse aider à l'évaluation du risque de dépendance à l'exercice physique dans une population de sportifs amateurs français. Notre version française de l'EAI est une échelle lisible et compréhensible. Elle a une bonne acceptabilité auprès des médecins généralistes et des patients. Du point de vue de la fidélité, elle présente une très bonne consistance interne et une stabilité temporelle acceptable. Du point de vue de la validité, l'EAI en français mesure effectivement le concept de dépendance à l'exercice physique. Elle identifie les sujets pratiquant plus de 5 heures d'activité physique hebdomadaire comme ayant un risque plus important de dépendance à l'exercice physique que ceux ayant une durée de pratique inférieure à 2.5 heures. L'analyse factorielle fournit des résultats satisfaisants qui traduisent la solidité de la construction de notre version française de l'EAI. Par ses qualités pratiques et psychométriques l'EAI, dans la version que nous proposons, semble être un outil approprié pour les médecins généralistes et médecins du sport, leur permettant de dépister les sportifs à risque de dépendance à l'exercice physique. Ainsi identifiés, ces sportifs peuvent bénéficier d'un entretien individuel spécialisé pour : - Affirmer ou non le caractère primaire de la dépendance à l'exercice physique en éliminant un trouble de l'alimentation - Evaluer le niveau de dépendance à l'exercice physique - Rechercher la présence éventuelle de comorbidités psychiatriques associées A l'issue de cet entretien, si le diagnostic de dépendance à l'exercice physique est établi, le traitement recommandé à l'heure actuelle se base sur les thérapies cognitivo-comportementales. L'EAI en version française s'avère être un outil de base intéressant, valide et fiable. Il peut non seulement contribuer au développement de travaux de recherche dans le domaine de la dépendance à l'exercice physique, mais aussi et surtout, il trouve une application pratique comme support de détection et d'aide à la prévention des comportements à risque d'addiction. Il est utilisable par les professionnels de santé prenant en charge les sportifs amateurs, et est particulièrement bien adapté à un usage lors des consultations de médecine générale.
VII. Annexes 53 A. Définition des composantes de l'EAI
Tableau 7 : Composantes de l'EAI, définitions et items correspondants DIMENSION DEFINITION ITEM
Salience C'est l'activité particulière devenant l'activité la plus importante dans la vie de la personne, en focalisant ses pensées, ses sentiments et son comportement. Par exemple, si la personne n'est pas en train d'exercer l'activité en question, elle va y penser jusqu'à ce qu'elle la pratique de nouveau L'exercice physique est ce qu'il y a de plus important dans ma vie Conflict Ce sont soit les conflits interpersonnels, qui surviennent entre la personne « addict » et son entourage, soit les conflits intrapsychiques, qui concernent l'individu luimême. Le sujet choisit le plaisir à court terme et le soulagement immédiat, ce qui conduit à ne pas tenir compte des conséquences défavorables et des dégâts à long-terme qui, en retour, augmentent le besoin apparent de pratiquer l'activité addictive comme un moyen pour supporter ces pensées La quantité d'exercice physique que je pratique est source de conflit avec ma famille et/ou mon conjoint C'est l'expérience subjective que les personnes ressentent comme une conséquence de la pratique de leur activité spécifique. J'utilise l'exercice physique comme moyen d'agir sur mon humeur (par ex. pour « m'éclater », pour « m'échapper ») C'est le processus par lequel l'augmentation de la quantité de pratique de l'activité est nécessaire pour parvenir à l'effet ressenti antérieurement. Par exemple, un joueur peut augmenter progressivement la valeur du pari pour vivre l'euphorie ressentie auparavant avec une mise moins importante. Au fil du temps j'ai augmenté la quantité d'exercice physique que je pratique C'est un sentiment désagréable et/ou un mal être physique qui apparait à l'arrêt ou à la diminution brutale de l'activité. Si je dois manquer une séance d'entraînement physique, je suis d'humeur maussade et irritable C'est la facilité à laisser se réinstaller très rapidement les comportements lié à l'activité en question. Les comportements les plus extrêmes, sont très vite rétablis même après plusieurs années d'abstinence ou de contrôle. Si je réduis drastiquement mon activité physique pendant un temps, je finis toujours tôt ou tard par revenir au moins au même rythme qu'avant.
Mood modification Tolerance Withdrawal Relapse 54 B. Note d'information à destination des médecins
Cher Docteur, Actuellement médecin généraliste remplaçante, je prépare la thèse de Docteur en médecine générale. Le sujet de la thèse est : « Validation française de l'échelle de dépendance à l'exercice physique : l'EAI (Exercise Addiction Inventory) » L'EAI est une échelle de mesure de l'addiction à l'exercice physique, élaborée en 2004 par Terry & al. Elle est composée de six items, dont la réponse est une échelle de Likert en 5 points. Dans la version originale, elle présente de bonnes propriétés psychométriques et est reconnue pour être un outil de dépistage valide, permettant d'identifier rapidement et facilement les personnes à risque d'addiction à l'exercice physique. La version originale a été traduite et est utilisée dans de nombreux pays mais ne l'est pas en France. La première partie de mon travail a consisté en l'élaboration d'une version française de cet outil. La seconde partie a pour objectif la validation statistique de cette version de l'EAI et de déterminer la prévalence de l'addiction au sport dans la population des sportifs amateurs français. Accepteriez-vous de contribuer à cette deuxième partie de ma recherche?
Les critères d'inclusion : - Patient âgé de 18 à 70 ans Sportif amateur
Vous avez signé un certificat de non contre-indication à la pratique sportive pour l'année 2015-2016 - Questionnaire rempli de manière anonyme par le patient Durée approximative de remplissage du questionnaire : 3 à 4 minutes Les questionnaires complétés sont à retourner via l'enveloppe jointe avant le 15 Décembre 2015. En vous remerciant par avance pour votre précieuse contribution. Cordialement, FERREIRA Inès 55 C.
Note d'information à destination des participants
Actuellement médecin généraliste remplaçante, je prépare la thèse de Docteur en médecine générale. Le sujet de la thèse est : « Validation française de l'échelle de dépendance à l'exercice physique : l'EAI (Exercise Addiction Inventory) » L'EAI est une échelle de mesure de l'addiction à l'exercice physique, élaborée en 2004 par Terry & al. Elle est composée de six items, dont la réponse est cotée sur 5 points. Dans la version originale, elle est reconnue pour être un outil de dépistage permettant d'identifier rapidement et facilement les personnes à risque d'addiction à l'exercice physique. La version originale a été traduite et est utilisée dans de nombreux pays mais ne l'est pas en France. La première partie de mon travail a consisté en l'élaboration d'une version française de cet outil. La seconde partie a pour objectif la validation statistique de cette version de l'EAI et de déterminer la prévalence de l'addiction au sport dans la population des sportifs amateurs français. Vous êtes sportif amateur, Vous avez entre 18 et 70 ans, Votre médecin traitant vous a signé un certificat de non contre-indication à la pratique sportive au cours de l'année, Accepteriez-vous de contribuer à cette deuxième partie de ma recherche? Pour cela, prenez quelques minutes pour répondre sincèrement au questionnaire. Les réponses seront traitées anonymement, et seront utilisées uniquement dans le cadre de la thèse, à des fins statistiques. En vous remerciant pour votre contribution.
Ferreira Inès
« Les informations recueillies font l'objet d'un traitement informatique destiné à la validation statistique et à l'étude des propriétés psychométriques de
l'EAI traduite en Français. Les destinataires des données sont :
Ferreira In
ès, médecin généraliste remplacant.
Conformément à la loi « informatique et libertés » du 6 Janvier 1978 modifiée en 2004, vous bénéficiez d'un droit d'accès et de rectification aux informations qui vous concernent
, que vous pouvez exercer en
vous
adressant
à Ferreira Inès, iferreira@outlook
.
fr.
Vous
pouvez également, pour des motifs légitimes
,
vous oppos
er
au traitement des données
vous concern
ant. » 56
D. Classification des sports selon l'intensité physique Classification adaptée
Classification de Mitchell Tableau 8 : Classification des sports selon l'intensité, adaptée de Mitchell (35) A-Faible B-Moyenne C-Forte Golf Tir à l'arc Motocyclisme Plongée sous-marine Equitation Gymnastique Escalade Voile Arts martiaux et sports de combat Escrime Tennis de table Athlétisme Surf Ski alpin Surf des neiges, snowboard Skateboard Football Tennis Badminton Squash Course à pied (longue et moyenne distance ) Ski de fond Basketball Handball Biathlon Natation Canoë-kayak Aviron Boxe Cyclisme Triathlon Marche Fitness Pilates Aquagym Yoga Stand up paddle Danse Parapente Power plate Apnée Randonnée Sport en salle Musculation Marche nordique Zumba Raquettes Roller skating Ski de randonnée Alpinisme BMX Aquabike Cardio-training Roller derby Kick boxing VTT Trail Hockey subaquatique Boxe thaï, boxe française Jogging 57 E. Distribution de fréquence des réponses pour chaque item 58 59 F. Analyses factorielles
Tableau 9 : Indices d'ajustement Indice Version Française Règle de lecture Χ2 df 19.58 9 p-value 0.02 RMSEA 0.07 CFI 0.96 TLI 0.94 SRMR 0.04 0.05< > 0.08 > 0.94 > 0.90 < 0.09 (39,40) Χ2 Df RMSEA CFI TLI SRMR Chi-squared value Degree of freedom Root Mean Squared Error of Approximation Comparative Fit Index Tucker Lewis Index Standardized Root Mean Square Residual Tableau 10 : Matrice de corrélation -1Salience 1-Salience 2-Conflict 3-Euphoria 4-Tolerance 5-Withdrawal 6-Relapse and reinstatement 1.00 0.27 0.37 0.40 0.35 0.28 -2Conflict 1.00 0.14 0.20 0.32 0.20 -3Mood modification 1.00 0.30 0.35 0.40 -4Tolerance 1.00 0.43 0.30 -5Withdrawal 1.00 0.31 -6Relapse and reinstatement 1.00 60
VIII. Bibliographie 61
1. Baekeland F. Exercise deprivation: Sleep and psychological reactions. Arch Gen Psychiatry. 1970 Apr 1;22(4):365–9. 2. Glasser william. Positive addiction. New York: Harper & Row.; 1976. 3. Hausenblas HA, Symons Downs D. Exercise dependence: a systematic review. Psychol Sport Exerc. 2002 Apr;3(2):89–123. 4. De Coverley Veale DMW. Exercise Dependence. Br J Addict. 1987 Jul 1;82(7):735–40. 5. Guelfi J-D, American psychiatric association. DSM-IV : manuel diagnostique et statistique des troubles mentaux version internationale avec les codes CIM-10. 4e éd. Paris Milan Barcelone: Masson; 1996. 6. Hausenblas HA, Downs DS. How Much is Too Much? The Development and Validation of the Exercise Dependence Scale. Psychol Health. 2002 Jan 1;17(4):387–404. 7. Downs DS, Hausenblas HA, Nigg CR. Factorial Validity and Psychometric Examination of the Exercise Dependence Scale-Revised. Meas Phys Edu Exerc Sci. 2004 Dec;8(4):183–201. 8. Kern L. Dépendance et exercice physique: une échelle de dépendance à l'exercice physique. Psychol Fr. 2007 Dec;52(4):403–16. 9. Allegre B, Therme P. Étude confirmative de l'échelle de dépendance à l'activité physique Exercise Dependence Scale-Revised pour une population francophone. L'Encéphale. 2008 Oct;34(5):490–5. 10. Griffiths MD, Szabo A, Terry A. The exercise addiction inventory: a quick and easy screening tool for health practitioners. Br J Sports Med. 2005 Jun 1;39(6):e30–e30. 11. Terry A, Szabo A, Griffiths M. The exercise addiction inventory: A new brief screening tool. Addict Res Theory. 2004;12(5):489–99. 12. American Psychiatric Association, American Psychiatric Association, editors. Diagnostic and statistical manual of mental disorders: DSM-5. 5th ed. Washington, D.C: American Psychiatric Association; 2013. 947 p. 13. À partir de quand peut-on parler d'addiction au sport? [Internet]. Allo docteur. 2013. Available from: http://www.allodocteurs.fr/actualite-sante--partir-de-quand-peut-on-parler-d-addictionau-sport-_10273.html 14. Billard S. Bigorexie : le sport crée des junkies presque comme les autres [Internet]. Rue89. 2011. Available from: http://www.rue89.com/rue89-sport/2011/11/10/bigorexie-le-sport-creedes-junkies-presque-comme-les-autres-226393 15. Silvestre P. Bigorexie, lorsque le sport devient addiction [Internet]. Runners.fr. 2014 [cited 2015 Jul 3]. Available from: http://runners.fr/bigorexie-lorsque-le-sport-devient-addiction/ 16. C'est au programme - Addictau sport! [Internet]. France2; 2011. Available from: http://www.france2.fr/emissions/c-est-au-programme/chroniques/addictau-sport_87441 62 17. Comment le sport rend accro [Internet]. Journal télévisé. 2015. Available from: http://www.francetvinfo.fr/sports/comment-le-sport-rend-accro_890629.html 18. Coutanceau R, Dumont S. Il est accro au sport. Comment le calmer? Femme Actuelle [Internet]. 2014 Jun 19; Available from: http://www.femmeactuelle.fr/amour/couple/il-est-accro-au-sport 19. Lanchon A. Je suis accro au sport. psychologies magazine [Internet]. 2013 Sep; Available from: http://www.psychologies.com/Moi/Se-connaitre/Comportement/Articles-et-Dossiers/Je-suisaccro-au-sport 20. Quand le sport devient une addiction - Tous les journaux télévisés de TF1 - Actu / Buzz [Internet]. Journal télévisé. 2011. Available from: http://www.wat.tv/video/quand-sportdevient-addiction-47p89_2i0u7_.html 21. Griffiths MD, Urbán R, Demetrovics Z, Lichtenstein MB, la Vega R de, Kun B, et al. A crosscultural re-evaluation of the Exercise Addiction Inventory (EAI) in five countries. Sports Med Open. 2015 Jan 20;1(1):5. 22. Griffiths, M.D. (1996). Behavioural addictions: An issue for everybody? Journal of Workplace Learning, 8(3), 19-25. 23. Lichtenstein MB, Christiansen E, Bilenberg N, Støving RK. Validation of the exercise addiction inventory in a Danish sport context. Scand J Med Sci Sports. 2014 Apr;24(2):447–53. 24. Sicilia Á, Alías-García A, Ferriz R, Moreno-Murcia JA. Spanish adaptation and validation of the Exercise Addiction Inventory (EAI). Psicothema. 2013;25(3):377–83. 25. Allegre B, Therme P, Griffiths M. Individual Factors and the Context of Physical Activity in Exercise Dependence: A Prospective Study of "Ultra-Marathoners." Int J Ment Health Addict. 2007 May 1;5(3):233–43. 26. Skevington SM. Advancing cross-cultural research on quality of life: observations drawn from the WHOQOL development. Qual Life Res. 2002;11(2):135–44. 27. Acquadro C, Conway K, Hareendran A, Aaronson N, European Regulatory Issues and Quality of Life Assessment (ERIQA) Group. Literature Review of Methods to Translate Health-Related Quality of Life Questionnaires for Use in Multinational Clinical Trials. Value Health. 2008 May 1;11(3):509–21. 28. Vallerand RJ. Vers une méthodologie de validation trans-culturelle de questionnaires psychologiques: Implications pour la recherche en langue française. Can Psychol Can. 1989;30(4):662–80. 29. Rouquette A, Falissard B. Sample size requirements for the internal validation of psychiatric scales. Int J Methods Psychiatr Res. 2011;20(4):235–49. 30. Griffiths MD. Szabo, A., Griffiths, M.D., de La Vega Marcos, R., Mervo, B. & Demetrovics, Z. (2015). Methodological and conceptual limitations in exercise addiction research. Yale Journal of Biology and Medicine, in press. Yale J Biol Med. 2015; 63 31. Terwee CB, Bot SDM, de Boer MR, van der Windt DAWM, Knol DL, Dekker J, et al. Quality criteria were proposed for measurement properties of health status questionnaires. J Clin Epidemiol. 2007 Jan;60(1):34–42. 32. Danielsen AK, Pommergaard H-C, Burcharth J, Angenete E, Rosenberg J. Translation of Questionnaires Measuring Health Related Quality of Life Is Not Standardized: A Literature Based Research Study. 2015 33. Ornetti P. Validation transculturelle des critères d'évaluation rapportés par le patient dans l'arthrose des membres inférieurs [Thèse d'exercice]. Université de Bourgogne; 2010 34. Mónok K, Berczik K, Urbán R, Szabo A, Griffiths MD, Farkas J, et al. Psychometric properties and concurrent validity of two exercise addiction measures: A population wide study. Psychol Sport Exerc. 2012;13(6):739–46. 35. Mitchell JH, Haskell W, Snell P, Van Camp SP. Task Force 8: Classification of sports. J Am Coll Cardiol. 2005 Apr 19;45(8):1364–7. 36. Michel Lejoyeux CG. Exercise dependence among customers from a Parisian sport shop. J Behav Addict. 2012;1(1):28–34. 37. Landis JR, Koch GG. The measurement of observer agreement for categorical data. biometrics. 1977;159–74. 38. Kern L, Baudin N. Validation française du questionnaire de dépendance de l'exercice physique (Exercise Dependence Questionnaire). Rev Eur Psychol AppliquéeEuropean Rev Appl Psychol. 2011 Oct;61(4):205–11. 39. Hu L, Bentler PM. Fit indices in covariance structure modeling: Sensitivity to underparameterized model misspecification. Psychol Methods. 1998;3(4):424. 40. Iacobucci D. Structural equations modeling: Fit Indices, sample size, and advanced topics. J Consum Psychol. 2010 Jan;20(1):90–8.
64 IX. Liste des abréviations
65 EAI : Exercise Addiction Inventory EDS-R : Exercise Dependance Scale – Revised EI : espace interquartile ET : écart type OR
:
odds ratio IC
:
intervalle de confiance 66
SERMENT D'HIPPOCRATE
En présence condisciples des Maîtres de cette Faculté, de et devant l'effigie d , Je promet
s
l'honneur de jure probité exerci Je donnerai mes soins gratuitement à l'indigent et n'exigerai jamais un salaire au-dessus de mon travail. Je ne participerai à aucun partage clandestin d'honoraires. Admis dans l'intimité des maisons, mes yeux n'y verront pas ce qui s'y passe ; ma langue taira les secrets qui me seront confiés et mon état ne servira pas à corrompre les moeurs, ni à favoriser le crime. Je ne permettrai pas que des considérations de religion, de nation, de race, de parti ou de classe sociale viennent s'interposer entre mon devoir et mon patient. Je garderai le respect absolu de la vie Même sous la menace, je n'admettrai pas de mes connaissances médicales contre l'humanité. humaine. de faire usage les lois de Respectueux et reconnaissant envers mes Maîtres, je rendrai à leurs enfants l'instruction que j'ai reçue de leurs pères. Que les hommes m'accordent à mes promesses. Que je confrères leur estime sois couvert d'opprobre si j'y manque. et si je suis méprisé fidèle de.
| 11,440
|
25/dumas.ccsd.cnrs.fr-dumas-01696254-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 1,986
| 3,542
|
Institut National du Cancer. La chimiothérapie orale du cancer en 2014. Boulogne-Billancourt; 2015. 2. Institut National du Cancer. Chimiothérapie anticancéreuse - Les traitements [Internet]. www.e-cancer.fr. 2017. [en ligne]. www.e-cancer.fr/Professionnels-de-sante/Lestraitements/Chimiotherapie. Consulté le 11 octobre 2017 3. Sciences et Avenir. Combien coûte le cancer en France?. Sciences et Avenir. 2014. [en ligne]. https://www.sciencesetavenir.fr/sante/infographie-combien-coute-le-cancer-en-france_27078. Consulté le 11 octobre 2017 4. Institut National du Cancer. Le Plan cancer 2003-2007. 2014. [en ligne]. http://www.ecancer.fr/Plan-cancer/Les-Plans-cancer-de-2003-a-2013/Le-Plan-cancer-2003-2007. Consulté le 11 octobre 2017 5. Institut National du Cancer. Le Plan cancer 2009-2013. 2014. [en ligne]. http://www.ecancer.fr/Plan-cancer/Les-Plans-cancer-de-2003-a-2013/Le-Plan-cancer-2009-2013. Consulté le 11 octobre 2017 6. Institut National du Cancer. Les 17 objectifs du Plan - Plan cancer 2014-2019 : priorités et objectifs. 2014. [en ligne]. http://www.e-cancer.fr/Plan-cancer/Plan-cancer-2014-2019priorites-et-objectifs/Les-17-objectifs-du-Plan. Consulté le 11 octobre 2017 7. République Française plan cancer. Plan cancer 2003-2007. Mission interministérielle pour la lutte contre la cancer. Paris. 8. Ministère de la Santé. Plan cancer 2014-2019. Guérir et prévenir les cancers : donnons les mêmes chances à tous, partout en France. mars, 2015. 9. Grünfeld JP. Rapport au président de la république : recommandation pour le plan cancer 20092013, pour un nouvel élan. Paris; 2009 février. 10. Vernant JP. Recommandations pour le troisième plan cancer. Paris; 2013 Juillet. 11. Bourquin C. Rôles des médecins généralistes dans la prise en charge de patients atteints de cancer : état des lieux et souhaits. [Thèse d'exercice de Médecine]. [Rouen]: Rouen Faculté de médecine; 2015. 12. WONCA EUROPE. La définition européenne de la médecine générale - médecine de famille. 2002. 13. Couraud C. Le médecin généraliste face à la prise en charge des patients atteints de cancer. [Thèse d'exercice de Médecine]. [Paris]: Paris Diderot Faculté de médecine; 2011. 14. Pinganaud G. Difficultés du médecin généraliste dans la prise en charge des patients atteints de cancer (rôles, besoins et perspectives) [Thèse d'exercice de Médecine]. [Poitiers]: Poitiers Faculté de médecine; 2013. 53 15. Tong A., Sainsbury P., Craig J. Consolidated criteria for reporting qualitative research (COREQ): a 32-item checklist for interviews and focus groups. 2007. (International Journal for Quality in Health Care). 16. Gedas M. Traduction française des lignes directrices COREQ pour l'écriture et la lecture des rapports de recherche qualitative. 2014. 17. Réseau OSMOSE. Programme personnalisé de l'après cancer (P.P.A.C). Enquête auprès des médecins généralistes. 18. Gérard P. Place du médecin généraliste dans la prise en charge des patients en cours de chimiothérapie: enquête auprès des patients de l'hôpital de jour du CHR d'Annecy [Thèse d'exercice de Médecine]. [Grenoble]: Grenoble Faculté de médecine; 2012. 19. Varvat C. Perception du rôle du médecin généraliste chez les patients en cours de chimiothérapie. Enquête qualitative [Thèse d'exercice de Médecine]. [Nice]: Nice Faculté de médecine; 2017. 20. BROCHE. Les malades prennent la parole. Le livre blanc des premiers états généraux de malades du cancer. RAMSAY; 1999. 261 p. 21. Jacquemot A. Coordination ville-hôpital en cancérologie : Etude quantitative auprès des médecins généralistes de Rhône-Alpes concernant le Programme Personnalisé de Soins. [Thèse d'exercice de Médecine]. [Lyon]: Lyon EST Faculté de médecine; 2015. 22. LOI n° 2009-879 du 21 juillet 2009 portant réforme de l'hôpital et relative aux patients, à la santé et aux territoires. juillet, 2009. 23. République Française. Loi HPST, hôpital, patients, santé, agences régionales de santé. Loi du 21 juillet 2009 portant réforme de l'hôpital et relative Gottheff K. Place du médecin généraliste dans la prise en charge oncogériatrique : points de vue des spécialistes hospitaliers. [Thèse d'exercice de Médecine]. [Paris]: Paris Diderot Faculté de médecine; 2014. 25. Toutirais G. Une consultation systématique programmée auprès du médecin traitant pour le patient cancéreux en cours de traitement par chimiothérapie ou radiothérapie présente-t-elle un intérêt? Avis des médecins généralistes de Loire-Atlantique [Thèse d'exercice de Médecine]. [Nantes]: Nantes Faculté de médecine; 2015. 26. Tran Phong E., Allermoz E. Applications en santé, le B.A.-ba sur cette révolution. Médecins Bull Ordre Natl Médecins. juillet-Aout 2017;(50):17Ǧ22. 27. Appli Chimio - Télésuivi des chimiothérapies orales. [en ligne]. https://applichimio.com. Consulté le 11 octobre 2017 28. Ligue Nationale contre le cancer. « Les médecins généralistes face au cancer » Une enquête inédite de la Ligue nationale contre le cancer. 29. VIDAL : Base de données médicamenteuse pour les prescripteurs libéraux. [en ligne]. https://www.vidal.fr. Consulté le 11 octobre 2017 54 30. ONCOMIP. Oncomip - Traitements anticancéreux par voie orale. [en ligne]. http://oncomip.org/fr/espace-professionnel/traitements-anti-cancereux-fiches-d-informations. Consulté le 11 octobre 2017 31. FFCD - Fédération Francophone de Cancérologie Digestive. [en ligne]. http://www.ffcd.fr/index.php/effets-secondaires. Consulté le 11 octobre 2017 32. Fédération Francophone de Cancérologie Digestive. Effets secondaires du protocole 5FU-Cis platine. 2011. 33. Bacrie J. Evaluation de fiches sur les effets secondaires des chimiothérapies anti cancéreuses à l'usage des médecins généralistes. [Thèse d'exercice Médecine]. [Toulouse]: Toulouse Faculté de médecine; 2015. 34. Rouget Bugat M. E. Place du médecin généraliste dans la nouvelle organisation des soins en cancérologie [Thèse de Doctorat]. [Toulouse]: Toulouse III Paul Sabatier; 2014. 35. Wood ML, McWilliam CL. Cancer in remission. Challenge in collaboration for family physicians and oncologists. Can Fam Physician. 1996. 36. Institut National du Cancer. Equipements et dispositifs de prise en charge en cancérologie - Les chiffres du cancer en France. [en ligne]. www.e-cancer.fr. Consulté le 11 octobre 2017 37. Bouton C, Leroy O, Huez J-F, Bellanger W, Ramond-Roquin A. Représentativité des médecins généralistes maîtres de stage universitaires, Representativeness of general practice university lecturers. Santé Publique. 24 mars 2015;27(1):59Ǧ67. 38. Berkhout C. Comparaison des exercices des médecins généralistes maîtres de stage universitaires et non-maîtres de stage en France. Exercer. sept 2017.
55 ANNEXES A) Auteurs
Conf
lits d
'intérêts : Les auteurs ont déclarés n'avoir aucun conflit d'intérêt lors de la réalisation du travail. Contributions des auteurs : Maes Ségolène : réalisation
des entretiens, codage, analyse et réd
action Docteur Frin Anne-Claire : codage, analyse et rédaction Docteur Munck Stéphane : analyse et rédaction 56
B) Guide d'entretien initial
Dans votre pratique, vous suivez des patients atteints de cancer et traités par chimiothérapie. 9 Pouvez-vous me raconter un de ces suivis qui vous a marqué? o qu'avez-vous ressenti? o quelle prise en charge avez-vous réalisé? o qu'avez-vous fait? 9 Dans un cadre, plus général, comment gérez-vous la prise en charge de vos patients sous chimiothérapie? o pour quel motif vous sollicite-t-il le plus? o à quel point vous sentez-vous à l'aise sur la prise en charge de ces patients? 9 En se focalisant sur les effets indésirables, pouvez-vous me raconter des situations marquantes? o qu'avez-vous ressenti? o quelle prise en charge avez-vous réalisé? o qu'avez-vous fait? 9 Comment vous sentez-vous de manière globale dans la prise en charge des effets secondaires des chimiothérapies? o êtes-vous en difficulté ou plutôt à l'aise? o pourquoi? o sur quoi? 9 Pouvez-vous me parler de la relation que vous entretenez avec les cancérologues? o de leur disponibilité? o de leur soutien? o du contact que vous avez avec eu? o quel type d'information vous délivrent-t-ils? o les différentes prises en charge selon les structures, selon les types de cancer? 9 Selon vous, quelles seraient les solutions pour améliorer la prise en charge de ces effets indésirables? o Connaissez-vous des structures (matérielles, humaines, associatives) qui peuvent vous aider dans la prise en charge de ces effets indésirables? o De qui doit provenir l'aide et comment, selon vous? 57 C)
Guide
d'entretien définitif
: On a vu par la fiche que vous venez de remplir, que vous suivez des patients atteints de cancer, et qui sont sous chimiothérapie. 9 Pouvez-vous me raconter un de ces suivis qui vous a marqué? o qu'avez-vous ressenti? o quelle prise en charge avez-vous réalisé? o qu'avez-vous fait? 9 Dans un cadre, plus général, comment gérez-vous la prise en charge de vos patients sous chimiothérapie? o à quel point vous sentez-vous à l'aise sur la prise en charge de ces patients? 9 Comment vous sentez-vous de manière globale dans la prise en charge des effets secondaires des chimiothérapies? o êtes-vous en difficulté ou plutôt à l'aise? o pourquoi? o sur quoi? 9 Quel rôle selon vous jouez-vous dans la prise en charge d'un patient sous chimiothérapie? o Pourquoi les patients vous sollicitent-ils? o Quel rôle avez-vous? 9 Pouvez-vous me parler de la relation que vous entretenez avec les cancérologues? o de leur disponibilité? o de leur soutien? o du contact que vous avez avec eu? o quel type d'information vous délivrent-t-ils? o les différentes prises en charge selon les structures, selon les types de cancer? 9 Selon vous, quelles seraient les solutions pour améliorer la prise en charge d'un patient sous chimiothérapie? o Connaissez-vous des structures (matérielles, humaines, associatives) qui peuvent vous aider dans la prise en charge de ces effets indésirables? o De qui doit provenir l'aide et comment, selon vous?
58 D) Exemple de « Fiche-Patient » FFCD 59
Au moment d'être admise à exercer la médecine, je promets et je jure d'être fidèle aux lois de l'honneur et de la probité. Mon premier souci sera de rétablir, de préserver ou de promouvoir la santé dans tous ses éléments, physiques et mentaux, individuels et sociaux. Je respecterai toutes les personnes, leur autonomie et leur volonté, sans aucune discrimination selon leur état ou leurs convictions. J'interviendrai pour les protéger si elles sont affaiblies, vulnérables ou menacées dans leur intégrité ou leur dignité. Même sous la contrainte, je ne ferai pas usage de mes connaissances contre les lois de l'humanité. J'informerai les patients des décisions envisagées, de leurs raisons et de leurs conséquences. Je ne tromperai jamais leur confiance et n'exploiterai pas le pouvoir hérité des circonstances pour forcer les consciences. Je donnerai mes soins à l'indigent et à quiconque me les demandera. Je ne me laisserai pas influencer par la soif du gain ou la recherche de la gloire. Admise dans l'intimité des personnes, je tairai les secrets qui me seront confiés. Reçue à l'intérieur des maisons, je respecterai les secrets des foyers et ma conduite ne servira pas à corrompre les moeurs. Je ferai tout pour soulager les souffrances. Je ne prolongerai pas abusivement les agonies. Je ne provoquerai jamais la mort délibérément. Je préserverai l'indépendance nécessaire à l'accomplissement de ma mission. Je n'entreprendrai rien qui dépasse mes compétences. Je les entretiendrai et les perfectionnerai pour assurer au mieux les services qui me seront demandés. J'apporterai mon aide à mes confrères ainsi qu'à leurs familles dans l'adversité. Que les hommes et mes confrères m'accordent leur estime si je suis fidèle à mes promesses; que je sois déshonorée et méprisée si j'y manque.
RESUME
Introduction : En France en 2015, 3 millions de personnes vivent avec le cancer. Depuis les années 2000, les gouvernements ont mis en place des mesures pour aborder ce problème de santé publique. Les médecins généralistes, présents à chaque étape du cancer, sont de plus en plus sollicités. Ils ressentent cependant des difficultés dans la gestion de leurs patients sous chimiothérapie. Objectif : L'objectif de l'étude est de décrire la place des médecins généralistes dans le suivi de leurs patients sous chimiothérapies. Matériel et méthode : Etude qualitative par entretiens individuels semi-dirigés auprès des médecins généralistes installés dans les Alpes-Maritimes. L'analyse thématique a été précédée d'un double codage. Résultats : Douze médecins généralistes ont été interrogés. Ils ont exposé une prise en charge plus complexe du patient sous chimiothérapie à la fois sur les plans somatique et psychologique et ont défini leur rôle en tant qu' ccompagnateur. Cet accompagnement était facilité par la relation de confiance entretenue avec les patients et par leur faculté d'écoute. Cependant, l'apparition du cancer paraissait fragiliser cette place privilégiée. Les médecins généralistes décrivaient des sentiments d'impuissance, de solitude et une mise à l'écart. Ils dénonçaient également un manque d'information. Les médecins généralistes souhaitaient une information adaptée de la part des oncologues associée à une communication optimisée, le but étant une meilleure collaboration pour améliorer la prise en charge du patient. Conclusion : Améliorer la collaboration entre les différents intervenants permettrait de renforcer la place du médecin généraliste. Dans ce but, certains outils comme un numéro téléphonique unique ou des fiches conseils sur la conduite à tenir face aux effets secondaires des chimiothérapies, pourraient être des aides précieuses.
| 37,797
|
25/tel.archives-ouvertes.fr-tel-00544731-document.txt_2
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,337
| 12,211
|
Figure 1.7: a) Mecanisme de Bjorken. b) Mode
de
production
associe
e
avec
un
photo
n monochromatique dans
l'
etat nal.
Avec la m^eme statistique, le nombre de Higgs issus du processus de production avec un photon dans l'etat nal, n'est que de 3 a 30 evenements. La recherche du Higgs a LEP a ete e ectuee pour divers etats nals et dans plusieurs domaines de masses : 23 si mH < 15 GeV=c2, le Higgs possede un grand temps de vie et parcourt donc des distances longues avant de se desintegrer (quand mH < 2m, en moyenne'1m, < 1m quand mH > 2mK ). Son impulsion est egalement elevee dans ce domaine de masse (quelques dizaines de GeV=c). Les topologies de paires de leptons avec de l'energie manquante, les vertex secondaires, ou bien les monojets et les jets acoplanaires avec une paire de leptons energetiques, etaient des signatures recherchees. Les quelques evenements ayant survecu aux coupures d'analyses sont compatibles avec le niveau de bruits de fonds attendus [44]. LEP I a mis n aux incertitudes sur l'existence d'un Higgs de basse masse. si mH > 5? 10 GeV=c2, les desintegrations du Higgs sont dominees par les modes bb, cc, gluon-gluon et +?. Les canaux etudies sont : H + Z?! 2 jets (ou l+ l?) + Z?! 2 jets (ou l+l? ) + H + Z?! +? (ou 2 jets) + Z?! +? (ou 2 jets) + l+l?: Une combinaison des limites atteintes en 1995, par les di erentes collaborations de LEP [45], permet de donner une valeur inferieure de la masse du Higgs de 65.2 GeV=c2 avec 95 % de degres de con ance [46]. En combinant ces resultats obtenus a LEP I et ceux de la phase de fonctionnement du LEP II a 161 GeV, pendant l'ete 1996, l'experience OPAL, seule, met une limite de 65 GeV=c2 [47]. Couplages anormaux
Le mode de production associee du Higgs avec un photon monochromatique, est penalise par une section ecace faible. Neanmoins, l'etude de cette reaction est particulierement interessante, car elle permet de tester les couplages de Yukawa du top (les fermions qui \tournent" dans la boucle du diagramme associe a ce processus sont majoritairement des quarks top virtuels). En considerant l'existence de couplages anormaux, obtenus dans le cadre de modeles de Lagrangiens e ectifs, utilises pour decrire les proprietes du Modele Standard, la desintegration du Higgs dans le mode H! peut ^etre dominante [48]. DELPHI a mis une limite a 7:10?6 sur le rapport de branchement du Z en 3 [34] et exclut un Higgs de moins de 70 GeV=c2, dans ce cadre. A LEP II, la mesure des couplages a trois bosons de jauge dans les desintegrations W +W? permettront de tester la validite de ces modeles pour un Higgs de masse plus elevee [33]. Les Higgs du MSSM
Le h et le A ont ete recherches a LEP I jusqu'a des valeurs proches de mZ =2 [44] [49]. Les masses des H et du H sont probablement plus elevees que celles des W et du Z, les limites placees par LEP I, proches de mZ =2, sont sans surprise. Le h et le A ont ete recherches dans les modes Z! hZ? et Z! hA : 24 dans le canal Z! h Z?, les resultats des analyses e ectuees pour la recherche du Higgs standard ont ete reinterpretes. Dans le cadre du MSSM, ce mode est simplement a ecte par un facteur sin2(? ), lie aux couplages. Il est dominant pour les basses valeurs de tan( ). Les modes de desintegration du h etudies sont principalement les desintegrations dominantes en 2 quarks beaux et pour le reste en 2 leptons. Dans les desintegrations du Z?, seuls les modes en 2 electrons, ou 2 muons ou 2 neutrinos ont ete consideres (de facon a reduire le bruit de fond provenant des desintegrations hadroniques directes du Z). le canal Z! hA est dominant pour les valeurs intermediaires et elevees de tan( ) du fait du couplage cos2 (? ) de l'equation 1.46. Ce domaine est complementaire de celui du mode Z! h Z?. Les con gurations d'evenements a quatre jets de quarks beaux, avec etiquetage des jets, ont ete etudiees dans ALEPH. Dans L3, des topologies mixtes de paires de quarks beaux et de leptons ont ete considerees [45]. Les limites inferieures actuelles sur mh, incluant les donnees de LEP II a 161 GeV=c2, sont resumees dans la table 1.3 [40]. Elles sont donnees quelques soient les parametres de melanges dans le secteur des squarks.
valeur de tan( ) 1!7 limite sur mh (GeV=c2 ) 65! 50 7! 20 20! 50 50 50! 55 Tableau 1.3: Limites sur mh. Une limite inferieure de'45 GeV=c2 est donnee pour la masse du A [45] [34].
Bien que les paires
de
Higgs charges soient theoriquement inobservables a LEP I, des recherches
ont
ete e ectuees dans les modes
:
Z! H+H
?!
+?
;
cs et cscs (1.47) Ces modes sont privilegies par leurs couplages aux H. Une decouverte de tels signaux aurait rendu le MSSM caduque. Neanmoins, la limite proposee dans la reference [12] est proche de la limite cinematique de LEP I, elle vaut 43.5 GeV=c2. La valeur de l'element jVtb j de la matrice CKM est predite, dans le cadre du Modele Standard, comme etant tres proche de 1 (t! Wb). Si la desintegration du top en H est fortement favorisee (t! Hb), alors la valeur de jVtbj peut devier de l'unite. La mesure actuelle, faite au TeVatron, est assez peu restrictive, faute d'un nombre susant de quarks tops detectes (jVtbj = 0:97 0:15 0:07 et donc jVtbj > 0:58 a 95 % de con ance) [24]. Toutefois, elle ne contredit pas le Modele Standard. 25
1.4.2 Determinations indirectes de la masse du Higgs Sensibilite des tests a mH
Les mesures des di erents parametres et les tests de la theorie electrofaible sont sensibles aux e ets des corrections quantiques associees au boson de Higgs [13] [50]. Ainsi, de maniere indirecte, il est possible de donner des indications sur sa masse. La determination indirecte de la masse du quark top par le LEP et SLD [50] est a la fois +17 2 precise et proche de la valeur mesuree au TeVatron [24] : 177+7?8?19 pour 175 6 GeV=c. Ce succes motive une mesure indirecte de mH, bien que la sensibilite des tests soit a priori plus faible. Figure 1.8: Diagrammes de polarisations du vide contribuant aux corrections radiatives a une boucle du propagateur des bosons vecteurs Z et W et aux fermions massifs. La presence du boson de Higgs assure la re
normal
isabilite
du Modele Standard
. Il intervient dans ce
cadre par le biais de corrections radiatives.
Un exemple de ces correction
s est
represent
e sur la
gure 1.8.
Il existe d'autres diagrammes d'ordres plus eleves que ceux-ci qui sont a une boucle. Le calcul complet des e ets associes a ces processus laisse appara^tre des dependances logarithmiques en fonction de la masse du Higgs. Toutes les dependances d'ordre superieurs en fonction de mH sont \ecrantees" du fait de la presence dans les expressions des constantes de couplages de jauge, a des puissances au moins egales a celles de mH. Par exemple, pour le propagateur des W, les corrections sont de la forme : g2 mH + g2 m2H + ::: ln m m2W W (1.48) Cet e et est la manifestation du theoreme dit de \l'ecrantage", demontre pour la premiere fois par Veltman [51]. 26 La dependance logarithmique domine largement les corrections radiatives. Elle engendre des e ets avec des valeurs numeriques petites et de faibles variations. Dans le cas du quark top les dependances en fonction de mtop sont quadratiques. Il est plus dicile d'extraire mH a partir des tests de precision de la theorie electrofaible. Dans l'etat actuel de la precision des mesures, les e ets du Higgs sont encore relativement \voiles". Il convient de considerer les resultats obtenus avec precaution. La formule 1.23 nous donne une de nition de l'angle de Weinberg a l'ordre de Born. A la masse du Z, les variables mesurees tiennent compte des corrections radiatives {. Dans ce cadre il existe les relations suivantes [52] : MW2 = 1 + ^QED et ^ = MZ2 c^2 2GF s^2c^2 (1? r) MZ2 = p (1.49) ou c^2 et s^2 designent les valeurs e ectives a la masse du Z du cosinus et du sinus carre de l'angle de Weinberg. Resultats des determinations indirectes de mH
Avec une production de pres de 16 millions de Z a LEP, un grand nombre d'observables ont ete mesurees avec une precision souvent meilleure que le pourcent : la masse du Z et sa largeur, les largeurs partielles de desintegration du Z en leptons et hadrons, les asymetries avant-arriere et les asymetries d'helicite, la charge des jets La plupart de ces mesures donnent des valeurs pour l'angle e ectif de Weinberg. De son c^ote, SLD a Stanford, a l'aide de faisceaux e+e? hautement polarises, permet de fournir une valeur independante de l'angle e ectif de Weinberg, a la masse du Z, par mesure des asymetries gauche-droite. Les experiences sur collisionneur pp, UA2 CDF et D0 donnent la mesure directe actuellement la plus precise sur la masse du W. Le TeVatron fournit aussi la masse du quark top. Les experiences de di usion profondement inelastiques de neutrinos sur des noyaux cibles (CHARM, CDHS ), permettent d'obtenir une autre mesure du parametre a plus basse energie. Les mesures des parametres de la theorie electrofaible sont obtenues a partir des donnees precedentes. Les valeurs de ces mesures sont combinees a l'aide de procedures { A cette echelle d'energie, les grandeurs e ectives sont reperables, ici, a l'aide d'un accent circon exe. 27 mH (GeV=c2) +190 149+148?82 (149?82 ) log(mH ) max mH (GeV=c2) a 95 % de degres de con ance 2min=(n:d:l:) :30 2:17+0?0:35 550 (640) 19=14 Tableau 1.4: Determination indirecte de mh (les valeurs entre parentheses designent les cas ou les erreurs theoriques sur H sont incluses). En terme de \2 reduits", le rapport 2min =(n:d:l:) (nombre de degres de libertes), correspond a une probabilite comprise entre 10 et 33 %. d'ajustement global [13] [50] [53] [54] [55]. Les resultats de ces calculs permettent de degager les valeurs \les plus probables" de mH, ils sont presentees dans la table 1.4 [50]. La valeur obtenue pour mH privilegie un Higgs d'une masse intermediaire de l'ordre d'une centaine de GeV=c2. Toutefois, la table 1.4 montre qu'aucune partie du domaine de masse compris entre 65.2 et 600 GeV=c2 ne peut ^etre exclue. Perspectives pour les determinations indirectes de mH
La precision des procedures d'ajustement s'ameliorera jusqu'au demarrage du LHC. La decouverte du quark top a permis un saut qualitatif important vis a vis de la situation de 1994 [56].
experience : (ete 1996) observable : valeur : erreur :?tot Z (MeV=c2)?lept: Z (MeV=c2) RZlept: (103 ) sin2 Weffec: (104 ) mW (GeV=c2 ) sensibilite : theorie : ^s mtop mH ^QED H 175 6 60! 1000 :003 128.89(9) (GeV=c2) (GeV=c2 ) 1.4 -9.6 1.7 0.7 0.5 2494.6 2.7 83.91 0.11 0.06 -0.26 0.02 - 0.02 20778 29 -1.8 -29 21 4 1 2316.5 2.4 -2.0 16.0 0.05 2.3 0.5 80.356 0.125 0.035 -0.204 0.001 0.014 0.009
Tableau 1.5: Observables actuellement les plus sensibles a mH. 28
La table 1.5 [50] et la gure 1.10.a presentent les observables les plus sensibles a mH. Les resultats de LEP, du SLD, du TeVatron et des experiences sur cibles xes sont tous pris en compte pour calculer les di erentes valeurs experimentales. Dans cette table la sensibilite des di erentes observables s'obtient en calculant les ecarts engendres par une variation sur la masse du Higgs dans le domaine 60! 1000 GeV=c2. La borne inferieure de 60 GeV=c2 correspond a peu pres a la limite des recherches directes (65.2 GeV=c2 ), la borne superieure de 1 TeV=c2 sera expliquee dans le chapitre 1.5. L'angle de Weinberg est l'observable la plus sensible, l'e et de la variation de mH est 7 fois plus grand que l'erreur estimee sur la mesure (16 par rapport a 2.4). La mesure sur la masse des W est egalement interessante puisque l'e et de la variation de mH (204 MeV), domine largement toutes les autres sources d'incertitudes. Parmi les di erentes observables : la mesure de?tot Z est dominee par des e ets systematiques, elle ne devrait pas ^etre beaucoup amelioree. ?lept: Z nous donne acces a ^ par l'intermediaire des couplages axiaux a^l et vecteurs v^l. Pour que ^ commence a contraindre la masse du Higgs, il faudrait ameliorer la mesure des largeurs partielles leptoniques par un facteur > 3 (voir gure 1.10.a). RZlept: a?lept: est fortement relie Z, par de nition : had: Rlept: =?lept:?Z (1.51) had: Les erreurs de?lept: Z s'additionnent a celles de?Z, les incertitudes sont egalement reliees a la mesure de ^s. les mesures recentes des asymetries Ae et A obtenues, en particulier avec la mesure de la polarisation des leptons, combinees avec les asymetries gauches-droites dans les desintegrations leptoniques, permettent de calculer une des valeurs de l'angle e ectif de Weinberg les plus precises de LEP [57]. Il convient de noter que la valeur obtenue devie de la prediction standard par pres de 2 ecarts types (la mesure des asymetries gauches-droites de SLD, encore plus precise, devie a peu pres de la m^eme facon). Ces mesures de sin2 Weffec:(^s2 ) semblent favoriser un Higgs de moins de 100 GeV=c2. La valeur moyenne standard de s^2 privilegie des masses plus elevees. Le resultat qui est donne dans la table est une combinaison de toutes les mesures e ectuees. Les mesures de s^2 ne conna^tront pas des progres tres spectaculaires d'ici le debut de l'an 2000. Un collisionneur lineaire e+e?, apres le LHC, permettrait d'ameliorer l'erreur actuelle de 2:4 10?4 par un facteur > 2 [58]. Neanmoins, l'erreur experimentale est deja dominee par l'erreur theorique liee a la precision actuelle de la mesure de la constante ^QED, qui est de 10?3 (table 1.5). Les incertitudes sur cette grandeur sont principalement 29 liees aux e ets des quarks legers sur le propagateur du photon. Des experiences comme BES a Pekin, VEPP-2M a Novosibirsk, DANE a Frascati et BNL E821 a Brookhaven, devraient permettre d'ameliorer cette mesure par un facteur > 2. Dans ce cas [58], une precision de 10?4 sur s^2 ameliore la precision sur mH d'un facteur superieur a 7, par rapport a la mesure actuelle : H ln m mZ'0:2 au lieu de'1:5 (1.52) Les mesures des masses du W et du quark top seront bien plus precises vers l'an 2000, gr^ace a LEP II et au TeVatron : en remplacant l'injecteur principal du TeVatron, une luminosite instantanee de 2 1032cm?2:s?1, sera disponible sur cette machine [59]. Les erreurs statistiques sur les di erentes mesures seront reduites. Vers 2005, gr^ace a la statistique accumulee, correspondant a une valeur de luminosite integree de 10 fb?1, la masse du quark top sera connue a 2 GeV=c2 pres, et celle des W a 30 MeV=c2 pres. avec LEP II, une precision sur la masse des W de l'ordre de 40 MeV=c2 sera atteinte vers n 1999 [33]. La gure 1.9 donne la valeurs des predictions theoriques sur la masse du Higgs, en fonction de mtop et mW. L'ellipse superposee sur cette gure correspond a un contour a 95 % de degres de con ance obtenu en considerant que les valeurs centrales actuellement mesurees pour ces 2 observables ne vont pas changer [50] [24] et que seules les barres d'erreurs vont diminuer. Les valeurs retenues sont : mtop = 175 2 GeV=c2 et mW = 80:356 0:030 GeV=c2. Cette courbe permet d'apprecier la forte sensibilite du Higgs aux masses des W et du quark top. Elle privilegie les valeurs intermediaires de mH, au dela de 100 GeV=c2. Les tests de precision et les acces a la \Nouvelle Physique" Il est possible de montrer que 3 variables independantes sont susantes pour sonder les e ets de la \Nouvelles Physique" avec une bonne sensibilite [61] [62]. En combinant lineairement ces variables, les valeurs de tous les parametres mesures a la masse du Z, ou lies aux mesures du rapport mW =mZ, peuvent ^etre reproduites. Elles sont de nies de telle sorte que le Modele Standard Minimal est traite comme un cas particulier : elles s'annulent a l'ordre de Born, si les corrections radiatives sont uniquement engendrees par des e ets standards (QCD et theorie electrofaible). De plus, elles sont assez peu sensibles aux erreurs experimentales sur la mesure de la masse du quark top. Parmi tous les choix de parametres disponibles, il est possible d'utiliser les expressions : 30
Figure 1.9: Predictions theoriques sur la masse du Higgs, en fonction de mtop et mW. Les courbes representant la masse du Higgs tiennent compte des e ets engendres par les corrections aux ordres superieurs de QCD et de la theorie electrofaible sur et r [60]. Les lignes en tires indiquent les limites permises dans le cadre du MSSM, sans corrections radiatives, si aucune particule \purement supersymetrique" n'est decouverte a LEP II [33]. ^1 = ^ = 38mZ2pG2F 2 ^2 =? 32mW2 pG2F ln 2 h ^3 = 12mW2GpF2 ln 2 h m2top m2Z mtop mZ mH mZ? 2^s2ln mH mZ i Phys: + ^Nouv: 1 Phys: + ^Nouv: 2? ln (1.53) m2top i Phys: + ^Nouv: 3 m2Z
Les variables sont toutes de nies pour une echelle d'energie egale a la masse du Z, l'angle e ectif de Weinberg est de ni comme precedemment. Parmi les 3 variables ^i=1; 3, 2 sont directement reliees a la masse du Higgs. Puisque ^1, ^2 et ^3 permettent de parametrer les observables de LEP, de SLD, du TeVatron (), il est possible d'utiliser tous les resultats experimentaux, pour determiner les valeurs de ^1 et ^3. Elles sont representees sur la gure 1.10.a [50]. Les valeurs obtenues sont compatibles avec le Modele Standard. Ces variables seront mieux connues apres LEP II, une precision de 10?3 est attendue [33]. Le MSSM ne peut pas ^etre rejete, les resultats sont encore trop peu precis [63]. Il doit y avoir au moins un boson de Higgs (m^eme non standard). Si aucune particule \purement supersymetrique" n'est decouverte a LEP II, la mesure 31
Figure 1.10: a) Valeurs de 3 en fonction de celles de 1, pour les mesures actuelles [50] (les masses sont en GeV=c2 et mise a part la zone \SUSY", toutes les bandes sont donnees pour des contraintes de 1). b) Valeurs de r en fonction de mtop [64]. Les tirets representent 2 valeurs extr^emes pour mH dans le cadre du Modele Standard, les lignes continues
sont les limites permises par le MSSM, sans corrections radiatives (de 45 GeV=c2 a mZ ). La ligne en tirets alternee de points, donne la limite maximale permise par le MSSM si aucune particule \purement supersymetrique" ne devait ^etre decouverte a LEP II [65]. Les barres hachurees symbolisent les incertitudes des mesures actuelles (1). L'ellipse donne un contour a 95% de degre de con ance avec les valeurs d'incertitudes attendues en l'an 2000. correspondant a la gure 1.9, nous renseignera sur la validite du MSSM en 1999. La determination de la valeur de r [64] [65], permettra de donner une autre indication non completement independante. La gure 1.10.b donne des indications sur le pouvoir predictif de cette variable. 1.5 Contraintes theoriques sur la masse du Higgs
Dans le cadre du Modele Standard, la masse du Higgs est liee au couplage d'autointeraction, elle n'est donc pas predite. Neanmoins, a partir de considerations generales liees aux notions d'unitarite, de trivialite de la theorie et de stabilite de l'etat fondamental du potentiel du Higgs, il est possible de xer des contraintes theoriques sur sa masse.
32 Unitarite et validite de la theorie
Dans le Modele Standard, les amplitudes de tous les processus de di usion elastique de deux bosons vecteurs polarises longitudinalement, VLVL! VLVL (VL = WL; ZL ), divergent comme s=(mV ). Ces amplitudes n'interferent pas de maniere destructrice. En l'absence d'autres e ets, l'unitarite est violee, le Modele Standard est non renormalisable. Les etats de polarisation longitudinale des bosons vecteurs sont lies aux bosons de Goldstone par le biais du mecanisme de brisure de la symetrie. L'introduction d'un boson de Higgs echange dans la voie s ou la voie t de ces processus, annule les divergences. Dans ce cas, l'expression qui permet de calculer l'amplitude totale de la di usion WL+WL?! WL+WL?, s'ecrit a haute energie [22] [66] : A (WL+WL?! WL+WL?) = 2 2 2 H? MH ln 1 + s? G8FpM2H 2 + s?MM 2 s MH2 H (1.54) Dans la limite ou l'echelle d'energie de la reaction devient in nie (s >> MH2 ), cette amplitude tend vers la valeur : A(WL+WL?! WL+WL?)!? GFpM2H 2 4 (1.55) La contrainte d'unitarite impose que GF MH2 ne soit pas trop grand, sinon le couplage au Higgs deviendrait trop fort. Formellement, la condition d'unitarite est basee sur le developpement en ondes partielles de l'amplitude et impose que jRe(A)j < 0:5 [66]. Une limite superieure sur la masse du Higgs est alors obtenue : MH < 900 GeV=c2 (1.56) Cette relation ne signi e pas que la masse du Higgs soit forcement bornee par cette limite. Elle veut dire que si le Higgs est decouvert a une masse plus elevee, cette approche perturbative n'est pas valide. Le m^eme argument a ete avance par Heisenberg pour critiquer le modele des interactions de contact de Fermi. Dans ce modele [16], la di usion elastique d'un e sur un conduit a une section ecace qui diverge avec l'echelle d'energie s consideree. Trivialite : limite superieure sur mH
La notion de \trivialite de la theorie" permet de xer une limite superieure sur mH. Cette limite est de nie suivant l'echelle d'energie a partir de laquelle le Modele Standard n'est plus considere comme etant capable de decrire les processus physiques. La masse du Higgs est directement reliee aux couplages du Higgs avec lui m^eme. Dans les processus de di usions elastiques entre deux bosons de Higgs, plus la masse du Higgs est elevee et plus les couplages sont grands (voir gure 1.2.b). L'addition des amplitudes associees aux diagrammes d'ordres superieurs, fait diverger les sections ecaces de ces processus. La limite du domaine non perturbatif peut ^etre franchie. Il faut alors renormaliser la constante de couplage quadratique du potentiel de Higgs. L'equation du groupe de renormalisation pour cette constante de couplage s'ecrit, au premier ordre [66] [71] : d = 3 d 2 22 (1.59) ou est l'echelle d'energie de renormalisation, est une fonction croissante de l'energie (sa derivee est positive). Cette constante de couplage diverge quand l'energie devient tres grande (p^ole de Landau) k. L'etat fondamental du potentiel xe l'ordre de grandeur de reference, 0. Pour cette origine, 0 = v, la relation qui xe la valeur de la masse du boson de Higgs, s'ecrit : m2H = 2(v)v2 (1.60) k a un comportement symetrique de celui de s, la constante de couplage de la QCD, qui diverge quand l'echelle d'energie devient petite. La resolution de l'equation 1.59 est alors immediate. Il sut d'integrer entre l'origine v et NP, la limite de validite du modele standard, au dela de laquelle intervient la nouvelle physique. 1 = 1 + 3 ln NP (1.61) (v) (NP ) 22 v Cette limite, permet d'eviter que le couplage ne devienne trop grand. Car si NP! 1, la theorie ne peut ^etre de nie que si (v) = 0, la brisure spontanee de la symetrie SU(2)L U(1)Y n'est plus possible, le couplage quadrilineaire est nul, la theorie devient triviale. La consequence est que toute theorie en 4 suppose l'existence d'une nouvelle physique. L'echelle de la nouvelle physique est au plus la masse de Planck (1019 GeV=c2). A partir de cette echelle les e ets lies a la gravitation doivent ^etre obligatoirement quanti es. Par de nition du potentiel de Higgs, est positif. Cette remarque permet de de nir une contrainte sur ce parametre e ectif a partir de l'equation 1.61 (NP > 0) et sur la masse du boson de Higgs, de nie dans l'equation 1.60 :
? 1 2?1 2 2 2 v NP NP max (v) < 3 ln v (1.62) ) mH = p3 ln
v Si le modele standard est une bonne representation de la realite jusqu'a des echelles NP = 103; 1015 et 1019 GeV, le boson de Higgs est limite a des valeurs de masses respectivement inferieures a 755; 165 et 145 GeV=c2. La principale objection contre la demonstration precedente, est qu'elle est basee sur un developpement perturbatif a une boucle juge valide m^eme au voisinage du p^ole de Landau. Pourtant, une autre approche, par le biais de calculs non perturbatifs sur reseaux [66], donne egalement une limite superieure sur la masse du Higgs entre 600 et 800 GeV=c2. Stabilite du potentiel de Higgs : limite inferieure sur mH
Aux ordres superieurs du groupe de renormalisation [71] [72], le calcul des elements de matrice de di usion d'un boson de Higgs sur un autre Higgs doit egalement inclure des graphes faisant intervenir le quark top et les bosons vecteurs Z et W. En e et, les couplages de ces particules au Higgs sont importants a cause de leurs masses. L'equation 1.59 s'ecrit alors : 2 4 4 1 m m 3 m d Z W 2 2 2 4
d
= 22 +
v
2
mt? mW? 2? v4 mt? 2? 4Z
(1.63) Dans cette equation, le terme de droite est un polyn^ome du second degre. Il est facile de montrer qu'il s'annule pour deux valeurs de, de signes opposes, + et?. L'equation precedente se reecrit sous la forme : dd = 232 (??)(? +) q avec : m4W m4Z m2Z 2 m2Z 1 2 2 4 2 2 = 2v2 mW + 2? mt (mt? mW? 2 ) + 4(mt? 2? 4 ) (1.64) 35 La resolution de cette equation xe une limite inferieure sur la valeur de mH. L'apparition de cette contrainte est liee a la condition dite de \stabilite du potentiel" de Higgs. Il faut que le couplage soit positif pour que l'etat fondamental du potentiel de Higgs soit a la fois non nul, inferieur a la valeur du potentiel a la coordonnee nulle (V(v) < V(0)) et stable (une valeur negative de renvoie a l'in ni la valeur du minimum stable). L'evolution de vers la racine negative? est donc par de nition inacceptable. Si (v) < +, la derivee est negative, ce qui est egalement inacceptable. Ainsi, doit toujours ^etre superieur a +. Quand l'energie augmente, la relation qui de nit la masse du Higgs a partir de (v) permet d'ecrire la relation d'inegalite : r 2 2 m mH 2 > m2W + 2Z? m2t + (m2t? m2W? m2Z )2 + 4(m4t? 2m4W? m4Z ) (1.65) Cette limite prevoit que mH > 200 GeV=c2 si mt = 175 GeV=c2. 1.6 Recherches du boson de Higgs jusqu
'
au
LHC LEP II [33] et le TeVatron [59] a partir de 1999, permettront la recherche du Higgs jusqu'a des masses de l'ordre de 95 GeV=c2. La zone de masse entre 85 et 105 GeV=c2 est une 36 Figure 1.11: Domaines permis pour la masse du boson de Higgs en fonction de la masse du quark top, pour di erentes limites de validite du modele standard. La mesure mtop = 175 6 GeV=c2, issue du TeVatron, est indiquee [24]. La limite inferieure sur la masse du Higgs standard, issue d'une combinaison des recherches directes par les experiences LEP, est egalement presentee [46]. region dicile pour la recherche du Higgs. Dans cette region, il est souhaitable d'avoir un bon recouvrement entre les potentiels de decouverte de ces 2 machines et du LHC. 1.6.1 Les recherches a LEP II Le Higgs Standard
Le processus dominant la production du Higgs a LEP II est le mecanisme de Bjorken. Contrairement au cas de LEP I, le Z qui est produit avec le Higgs est pratiquement sur couche de masse. Cela o re une contrainte forte contre le bruit de fond. La recherchepdu Higgs dans ce mode est plus limitee par le manque d'energie delivree par la machine, s, que par le manque de luminosite.pLa limite cinematique pour produire le Higgs par ce processus est a peine plus elevee que s? mZ (largeur du Z). La section 37 ecace devient tres petite lorsque le Z associe au Higgs a tendance a ^etre virtuel. Loin de la limite cinematique, le Higgs peut ^etre recherche sans trop de dicultes, la section ecace a alors une valeur proche de 0.5 pb (cette valeur correspond a la section ecace de production d'un Higgs de 85 GeV=c2, pour une energie dans le centre de masse de 192 GeV). Cette limite est de nie de maniere empirique, par la relation : ps > m + m + 10 GeV Z H (1.67) De 1996 a 1998, l'energie du LEP va passer progressivement de 175 GeV a 192 GeV. De 1998 a n 1999, l'essentiel de la statistique correspondant a quelques centaines de pb?1 par experience, sera collectee. La luminosite instantanee de la machine devrait ^etre de l'ordre de 1032 cm?2 :s?1. ps Lmin=exp. 175 192 205 100 150 250 (GeV) (pb?1) decouverte exclusion 2 mH (GeV=c ) mH (GeV=c2) 80 95 108 83 98 112
Tableau 1.6: Limites ou decouvertes possibles du
Higgs
standard
a LEP II.
Les valeurs maximales des masses sont donnees pour des limites d'exclusion a 95 % de degres de con ance, la capacite de pouvoir observer une deviation due au signal par rapport au bruit de fond attendu, par plus de 5 ecarts types, est consideree comme une possible decouverte. Tout comme a LEP I, les desintegrations du Higgs sont completement saturees par les modes bb, cc, gg et +?. Le bruit de fond est totalement domine par les processus a quatre fermions dans l'etat nal. Pourtant, le rapport signal sur bruit est 103 fois plus favorable qu'a LEP I (10?6! 10?3). Bien que les topologies de bruits de fond attendus soient plus variees, pres de 90 % des modes possibles dans l'etat nal HZ, ont ete etudies et seront exploites. La possibilite d'etiqueter des jets de hadrons beaux de facon tres ecace, avec les nouveaux detecteurs de vertex a grande couverture d'angle solide ( 80 %), permettra d'avoir les meilleures possibilites de detections dans les modes HZ! bb; qq ou. Dans la table 1.6, les limites attendues pour une combinaison des resultats des 4 experiences sont presentees en fonction de l'energie de la machine et de la valeur minimale de luminosite integree necessaire pour chacune des experiences. La limite absolue d'une possible decouverte du Higgs a LEP II est 95 GeV=c2. Les valeurs proposees, dans le cas de la con guration a 205 GeV=c2, necessitent d'integrer une luminosite egale a 250 pb?1 par experience. Les Higgs du MSSM
Les processus dominant la production des Higgs du MSSM a LEP II sont : 38 Bjorken : e + e?! Z h ; H productions associees : e+e?! Ah e+e?! H+H? (1.68) Les analyses des modes hZ, H Z et h A sont le prolongement logique des recherches a LEP I. La plupart des signatures considerees dans ces processus, sont encore les processus standards, principalement les desintegrations a 4 jets de hadrons provenant de quarks beaux, avec eventuellement 2 jets provenant de leptons. Les signatures possibles concernant les desintegrations des Higgs en neutralinos legers, ont egalement ete etudiees, elles peuvent ^etre importantes pour de petites valeurs de tan( ). ps (GeV) 175 192 205 Lmin=exp. decouverte h exclusion h decouverte A exclusion A (pb?1) (GeV=c2 ) (GeV=c2 ) (GeV=c2 ) (GeV=c2) 150 150 300 77 (80) 82 (95) 88 (108) 83 (84) 88 (98) 95 (113) 77 (75) 82 (78) 88 (80) 83 (82) 88 (87) 95 (93)
Tableau 1.7: Limites ou decouvertes possibles du h et du A du MSSM a LEP II
.
La valeur entre parentheses correspond a tan( ) = 2, l'autre a tan( ) = 30. Les di erentes valeurs de masse qu'il est possible d'atteindre, dependent des parametres du MSSM, en plus de la luminosite et de l'energie delivree par la machine. Dans le table 1.7, les valeurs maximales sur les masses du h et du A, qui pourront ^etre explorees a LEP II, sont presentees. Dans le plan (mA ; tan( )), les regions mA < 80 GeV=c2 et tan( ) < 3 seront completement couvertes. Les parametres du MSSM retenus pour determiner ces valeurs ne correspondent pas a des con gurations extr^emes. Ils ne sont ni trop favorables a LEP II, ni trop favorables au LHC, qui est son complement naturel. Les valeurs sont obtenues en combinant toutes les analyses, pour une masse du top de 175 GeV=c2, des masses pour les particules supersymetriques de 1 TeV=c2, des parametres de melange At = 1 TeV=c2 =? et deux valeurs extr^emes de tan( ). Les valeurs de masses qui pourront ^etre explorees sont plus faibles que dans le cas du Modele Standard. La possibilite de decouvrir les H dans les modes cs et +? a ete examinee. Le bruit de fond des paires de W est quasiment irreductible. Il ne permet pas de rechercher des H au- dela de 70 GeV=c2, m^eme pour une tres grande valeur de luminosite integree egale a 500 pb?1. En cas de decouverte d'un Higgs neutre, il faudra egalement decouvrir une particule SUSY ou d'un autre Higgs pour valider la Supersymetrie. En e et, dans le domaine accessible a LEP II, les sections ecaces standards et supersymetriques de production du h sont trop peu di erentes pour permettre de lever l'ambigute. 39
1.6.2 Les recherches au TeVatron
Le projet de perfectionnement du TeVatron, prevoit une luminosite integree de l'ordre de 10 fb?1 vers 2005 [59]. mH (GeV=c2 ) 80 100 120 Lmin (fb?1) 5 10 25 Tableau 1.8: Decouvertes possibles du H au TeVatron en fonction de la luminosite integree (les valeurs sont donnees pour des e ets de plus de 5 ecarts types). La table 1.8 donne les luminosites necessaires pour la decouverte du Higgs jusqu'a 120 GeV=
c
2.
La derniere colonne correspond a un projet ambitieux de porter la luminosite instantanee a 1033 cm?2:s?1, apres 2005. Une ecacite de 50 % d'etiquetage des jets de quarks beaux, ainsi qu'un facteur de rejection de 100 contre les autres jets sont pris en compte. La resolution sur la masse des di-jets est
:
mjj
= 0:8pm
0:03 (1.70)
jj mjj
De nombreuses annees (> 10 ans) a 2:1032 cm?2:s?1 sont necessaires pour atteindre la valeur de 120 GeV=c2. M^eme dans le cas le plus optimiste, une luminosite instantanee de 1033 cm?2:s?1 ne devrait pas ^etre obtenue avant 2006. Aussi, il semblerait qu'une decouverte du Higgs au-dela de 100 GeV=c2, au TeVatron, soit dicilement envisageable avant les annees 2007-2010. Le cas des Higgs du MSSM n'a pas ete etudie. Neanmoins, les couplages du h aux quarks beaux peuvent ^etre renforces pour de grandes valeurs de tan( ) et des petites 40 valeurs de mA [39]. Dans le m^eme temps, pour ces petites valeurs de mA, les couplages du h aux W et Z sont attenues. Ainsi, si tan( ) est susamment grand et que mA est de l'ordre de 100-200 GeV=c2, une recherche au TeVatron permettra de contribuer au bon recouvrement des potentiels de LEP II et du LHC pour explorer le plan (mA
( )). 1.7 Proprietes du boson de Higgs au LHC
Le LHC est un collisionneur de protons qui fonctionnera a une energie de 14 TeV dans le centre de masse des reactions. Les possibilites de rechercher le Higgs au LHC ont ete decrites dans la reference [76]. Les experiences ATLAS [77] et CMS [78] ont evalue leurs potentiels pour les di erents canaux accessibles.
1.
7.1
Le
H
iggs standard
1.7.1.1 Phenomenologie Mecanismes de production du Higgs
Contrairement au cas des machines pp (SppS et TeVatron) ou la nature quark ou antiquark de valence des protons et des anti-protons joue un r^ole important dans la production des processus interessants (W, Z, top, etc ), la production du Higgs dans une machine proton-proton fait intervenir les gluons et les quarks de la mer. Figure 1.12: Principaux processus de production du Higgs au LHC.
Sur la gure 1.12 sont representes les diagrammes associes aux principaux modes de production du Higgs. Le mode dominant est la fusion de 2 gluons par l'intermediaire, principalement, d'une boucle de quark top. 41 Le LHC produira une quantite abondante de paires de gluons, avec des masses invariantes elevees [66] : ce sera une usine a gluons. La section ecace attendue pour des paires de gluons representant une masse invariante de 100 GeV=c2, et donc capables de produire des Higgs de cette masse, est de l'ordre de 105 nb. La section ecace est encore de l'ordre de 1 nb a 1 TeV=c2. Le detail des di erentes contributions de ces processus, importants pour la production et la recherche du Higgs au LHC, est presente en fonction de sa masse sur la gure 1.13. Pour le processus de production par fusion de gluons, la remontee dans la section ecace correspond a une valeur de masse egale a 2 mtop (quarks top sur couche de masse). Les processus de production du Higgs par fusion de bosons W et Z deviennent aussi importants que la fusion gg, pour des masses proches de 1 TeV=c2. Figure 1.13: Section ecace des contributions a la production du Higgs au LHC en fonction de sa masse (a l'ordre des arbres). Les valeurs correspondant aux courbes de la gure 1.13 ont ete calculees en utilisant le programme PYTHIA 5.7
[79] et son
choix de parametres par defaut des fonctions de structure du proton, CTEQ2L. Cette courbe est une reactualisation de la reference [80], les m^emes procedures de calculs ont ete adoptees
.
Une masse de 175 GeV=c2 pour le quark top
a ete consideree. Dans cette reference, il est montre que le choix de parametres CTEQ2L donne des resultats en accord a 5 % pres avec les fonctions de densite de protons CTEQ2MS, CTEQ2M et MRSD-', issues des groupes CTEQ et MSRD [81]. Ces fonctions de structures reproduisent correctement
les
donnees
de HER
A
et du TeVatron
.
Avec
une va
leur de luminosite integree de 102 fb?1, le nombre
de Higgs standards
Les valeurs correspondantes au TeVatron sont respectivement'500 nb et < 10?6 nb. 42 produits au LHC est respectivement de l'ordre de 2:106, 106 et 105 pour des masses de 100, 200 et 600 GeV=c2.
Modes de desintegration du Higgs
Le domaine de recherche du Higgs au LHC est tres etendu, de 90 GeV=c2 jusqu'a 1 TeV=c2. La phenomenologie de ses desintegrations est plus riche que sur les autres accelerateurs de plus basse energie. Les rapports d'embranchement du Higgs en fonction de sa masse, sont presentes sur la gure 1.14 [82]. Les corrections radiatives engendrees par la QCD et les ordres dominants electrofaibles sont inclues. Figure 1.14: Rapports d'embranchements du Higgs dans ses principaux modes de desintegration en fonction de sa masse en GeV=c2 (mtop = 174 GeV=c2).
La plupart des diagrammes representant les processus de desintegration du Higgs, ou leurs equivalents, ont ete presentes sur les gures 1.2, 1.7 et 1.12. A ces diagrammes s'ajoutent les diagrammes de desintegration en deux photons, traces sur la gure 1.15. Trois regions peuvent ^etre de nies en fonction de mH : si mH < mW les desintegrations en fermions sont dominantes, et la desintegration en paire bb, plus particulierement. La recherche du Higgs dans cette zone sera couverte par LEP II. si mH > 2 mZ, les desintegrations en bosons WW et ZZ sont dominantes. Il s'agit de la zone des Higgs \lourds". Le mode de desintegration le plus favorable experimentalement est : ZZ! 4 leptons. D'apres la gure 1.14, la desintegration en paires tt est du m^eme ordre de grandeur que celle en ZZ (au dessus de 2mtop). Toutefois, la production directe de paires tt a une section ecace 1000 fois superieure, il para^t donc impossible d'utiliser ce mode a LHC. 43
Figure 1.15: Processus de desintegration du Higgs en deux photons a l'ordre des arbres. si mW < mH < 2 mZ, le Higgs appartient a la region des masses intermediaires. Cette zone de masses est importante pour le recouvrement LEP-LHC, elle est favorisee par la theorie et les mesures de precision electrofaibles. Modes de desintegration des Higgs de masses intermediaires
Les modes de production directe en paires bb, +?, cc et gg, dominent la desintegration du Higgs. Toutefois, ils sont tres dicilement exploitables a LHC : La section ecace du processus pp! H! bb est d'environ 30 pb. Neanmoins, la section ecace de production directe de paires de jets issus de quarks beaux est de l'ordre de 100 b, avec des incertitudes grandes. Le taux des paires de jets inclusifs est de l'ordre du mb. La recherche du mode exclusif de 2 jets issus de quarks beaux n'est pas realisable, le declenchement des experiences est impossible et l'etiquetage des jets de quarks beaux est irrealisable a ce niveau d'identi cation. Le canal bb ne peut ^etre etudie que dans les modes de production associees WH et ttH, ou les desintegrations semi-leptoniques du (ou des) partenaire(s) du Higgs o rent un electron ou un muon energetique pour declencher l'experience. Le mode ZH a d'une section ecace environ 6 fois plus faible que le mode W H, mais il y a dans ce cas un neutrino. Les modes cc et gg, plus de 100 fois moins frequents que le mode de production directe bb, sont encore plus diciles a extraire. Le canal +?, sou re fortement dubruit de fond des jets et du bruit de paires de produites dans les desintegrations du Z et des paires tt. Dans l'etat nal, la presence de neutrinos limite la resolution sur la masse invariante du Higgs a reconstruire, ce mode n'est donc pas retenu. 44 D'autres canaux font intervenir des bosons vecteurs : le canal avec un Z accompagne d'un ne peut pas ^etre utilis e, faute d'une section ecace susante. En e et, seuls les canaux de desintegration du Z en electrons et muons sont exploitables. le mode W +W? n'est pas totalement negligeable, mais puisque seuls les etats naux leptoniques sont utilisables, la presence de neutrinos dans l'etat nal contraint mal la cinematique du signal observable. La masse ne peut pas ^etre determinee avec precision. Toutefois, une etude recente semble rehabiliter ce canal [83]. Largeur du Higgs
La variation de la largeur naturelle du Higgs en fonction de sa masse est presentee sur la gure 1.16 [82].
Figure 1.16: Evolution de la largeur naturelle du Higgs standard en fonction de sa masse. Les unites sont en GeV=c2(mtop = 174 GeV=c2 ).
Les
corrections radiatives de la QCD et de la
theorie electro
faible
sont inclus
es
. 45 Au-dela de 150 GeV=c2, les desintegrations en bosons sont dominantes par rapport aux desintegrations en fermions. Pour des masses superieures a 200 GeV=c2, il est possible de de nir une relation empirique pour parametrer la largeur du Higgs :?tot H'0:5 TeV=c2 mH 1 TeV =c2 3 (1.71) Cette equation est satisfaisante pour les hautes masses. La largeur cro^t contin^ument avec la masse. Les interactions fortes du Higgs avec les W et Z font diverger cette largeur [66]. A 1 TeV=c2, la largeur du Higgs est equivalente a sa masse. Cela n'a alors plus guere de sens de parler d'une resonance pour le Higgs yy. Dans le domaine des Higgs de masses intermediaires, la largeur du Higgs est tres faible, de l'ordre de quelques MeV=c2 pour 100 GeV=c2. La resolution experimentale des detecteurs joue un r^ole capital dans le potentiel de decouverte du Higgs a ces masses.
1.7.1.2 Corrections d'ordres superieurs et facteurs K
Le calcul des sections ecaces de production et des rapports d'embranchements du Higgs au LHC est sensible aux corrections radiatives engendrees par les e ets de la QCD, et dans une moindre mesure par ceux de la theorie electrofaible.
| 19,865
|
40/hal.inrae.fr-tel-02605449-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 9,450
| 14,921
|
5 C'est à dire prenant en compte l'écosystème et les interactions entre ressources vivantes dont il est le
lieu
4. Vers la mise en oeuvre d'une ingénierie écologique des communautés microbiennes des bioprocédés
L'ingénierie des bioprocédés pourrait être définie comme l'ensemble des fonctions qui mènent à la conception, à l'étude, à l'amélioration, à la construction, à la mise en service, à la maintenance et au suivi des bioprocédés. Ses références sont des disciplines scientifiques et techniques, parfois guidées par l'empirisme. Elle détermine des paramètres opératoires abiotiques pour modifier et contrôler au mieux les bioprocédés. La prise de conscience de l'importance des paramètres biotiques au sein des bioprocédés amène à de nouvelles réflexions et à la conceptualisation de nouveaux outils pour tenter de manipuler de manière réfléchie la composante microbienne. Pour ce faire, les interactions entre individus au sein de l'écosystème microbien doivent être mieux prises en compte et exploitées. En ce sens, l'ingénierie des bioprocédés a besoin de devenir écologique et d'enrichir ses concepts de nouvelles démarches, comme celle de l'ingénierie écologique. 4.1. L'ingénierie écologique, définitions et objectifs 4.1.1.Des premiers pas à la mise en place d'une démarche
La notion d'ingénierie écologique est introduite par Odum6 dès 1962 (146-148). Elle peut être définie comme l'application des principes de l'écologie à la gestion de l'environnement. C'est au sens strict la manipulation in situ de systèmes écologiques (de quelques individus à tout un écosystème) dans un contexte écosystémique explicite : prise en compte des interactions avec les autres organismes, communautés et écosystèmes, prise en compte des dimensions physiques et chimiques de la manipulation et du fonctionnement de ces systèmes écologiques. La réhabilitation des sols pollués par les métaux lourds via le semis de plantes accumulatrices de ces polluants, l'épuration des eaux par les microorganismes sont ainsi des exemples d'ingénierie écologique. Plus précisément, le but stratégique de l'ingénierie écologique est de maintenir, de favoriser ou d'orienter les processus naturels (et par conséquent les biens et les services qu'ils fournissent aux humains et aux autres espèces), avec un minimum d'intervention humaine et en minimisant les effets collatéraux. Ainsi, au delà de modifier la diversité, les manipulations induites par l'ingénierie des écosystèmes ont toutes pour but de minimiser la quantité d'énergie dépensée pour résoudre un problème particulier en comparaison à l'énergie apportée par les processus naturels (149). Ce but stratégique est le reflet de la définition originelle de l'ingénierie écologique par H. T Odum (146) : «toutes les situations où l'énergie fournie par les humains est réduite par rapport à celle fournie par les systèmes naturels, mais cependant suffisante pour avoir des impacts forts sur les organisations les processus qui en résultent ». En d'autres termes, l'ingénierie écologique utilise donc la tendance naturelle des écosystèmes à l'auto-organisation, à la résistance aux contraintes externes, à la résilience (c'est-à-dire la capacité de revenir à l'état antérieur après une perturbation), à s'adapter aux 6 Odum définit l'ingénierie écologique comme « those cases in which the energy supplied by man is small relative to the natural sources, but sufficient to produce large effects in the resulting patterns and processes », ou encore comme « environmental manipulation by man using small amounts of supplementary energy to control systems in which the main energy drives are still coming from natural sources » changements, à être multifonctionnels, et à être auto-suffisants énergétiquement et matériellement (150). Pour cela différentes contraintes ou «leviers d'action» peuvent être appliqués à l'écosystème. 4.1.2. Objectifs visés
Les objectifs recherchés sont divers. Une approche d'ingénierie écologique peut être employée pour conserver des écosystèmes (préserver la régénération forestière par exemple), pour réhabiliter des écosystèmes dégradés en restaurant les communautés fonctionnelles ou en réintroduisant des espèces (replanter des haies ou recréer des zones humides dans les agrosystèmes), pour améliorer leur fonctionnement (en accélérant le recyclage des nutriments, la pollinisation), pour créer de nouveaux écosystèmes durables qui ont une valeur pour l'homme et pour la biosphère, ou encore pour substituer des processus naturels à des activités humaines en mettant au point des outils biologiques pour résoudre des problèmes de pollution, rétablir ou maximiser un service écosystémique7, minimiser des consommations d'énergie non renouvelables, etc. (mise en place de toits végétaux pour la climatisation et l'épuration de l'eau, de zones humides pour le traitement des eaux usées, de forêts pour la purification de l'eau à la place de stations d'épuration). L'ingénierie écologique est donc une démarche très vaste, qui comprend de nombreux champs disciplinaires aux objectifs similaires. Elle vise à développer des modes de gestion durables des écosystèmes anthropisés, par l'utilisation explicite de processus écologiques dans un contexte écosystémique, tout en prenant en compte les contraintes économiques, sociales et politiques (151-155). Le succès international actuel de l'ingénierie écologique s'explique par l'émergence de problèmes environnementaux locaux et globaux multiples, la crise de l'énergie, le mouvement culturel vers une réconciliation avec la nature et, surtout, l'évolution législative et réglementaire. Dans ce dernier domaine, on peut citer le « Clean Water Act » aux Etats-Unis (197 la directive européenne cadre sur l'eau (2000), le marché des quotas d'émission de carbone en Europe (2003), la nouvelle politique agricole commune (2003) ou encore les projets français de mécanisme « compensatoire » sur la biodiversité (2008). 4.1.3. Enjeux de recherche
Malgré ces nombreux projets, et même si l'ingénierie écologique a été bien et suffisamment définie, son émergence en tant que discipline n'est pas encore achevée et reste une tâche difficile et un enjeu de taille (156). En conséquence, les enjeux pour la recherche sont nombreux. Il s'agit tout d'abord d'insérer dans l'ingénierie écologique pratique les avancées les plus récentes de la recherche en écologie, en hydrologie, en biologie de la conservation, en science du sol, en écologie microbienne, etc. afin d'évoluer vers une ingénierie ancrée dans la théorie plutôt que dans l'empirisme. C'est à ce niveau que se situe mon travail. Le second enjeu est de lier l'ingénierie écologique à l'ingénierie en général, c'est-à-dire de concevoir des systèmes techniques qui intègrent en amont les outils biologiques et écologiques (157). Le troisième enjeu est d'expliciter les dimensions éthiques, juridiques et économiques de l'ingénierie écologique et de proposer des pistes pour un cadrage social et politique de ce nouveau secteur 7 Une définition communément admise présente les services écosystémiques comme les bénéfices que les humains retirent des écosystèmes sans avoir à agir pour les obtenir. d'activités. Ces différents éléments constituent les bases d'une approche formelle ayant pour but de développer une ingénierie écologique reconnue, pratique, quantitative, sous forme d'une discipline qui mêle les recherches passées et futures pour créer des bases solides (156). L'écologie est a priori la discipline scientifique la plus à même de fournir un cadre disciplinaire au développement de pratiques pour gérer les écosystèmes naturels et anthropisés de manière rationnelle et durable. Par ces quelques éléments de contexte et de définitions, on imagine facilement comment la gestion biologique des déchets pourrait s'intégrer dans cette démarche et utiliser l'ingénierie écologique afin de faciliter et d'améliorer les processus. Voyons dans un premier temps quelles sont les passerelles disponibles entre l'ingénierie écologique des écosystèmes macroscopiques et celle des écosystèmes microbiens. 4.2. Les passerelles entre écosystèmes macroscopiques et écosystèmes microbiens 4.2.1. Des règles générales pour mettre en place l'ingénierie écologique
Après ces définitions du concept d'ingénierie écologique, on peut s'interroger sur sa mise en place, en particulier au sein des écosystèmes microbiens. Revenons tout d'abord à l'ingénierie écologique générale : Bergen énonce quelques règles de conception pour sa mise en place (158). La conception d'une gestion par ingénierie écologique doit tout d'abord être en accord avec les règles de l'écologie classique. En effet, dans cette démarche la nature est un partenaire, qui s'auto-organise. On ne peut pas aller à l'encontre de ce principe ; on peut certes apporter des perturbations, contraindre le système, mais pas aller à l'encontre de la réaction du système naturel sous ces contraintes. Par ailleurs la conception est spécifique à une situation et à une localisation en particulier. Les paramètres propres de la situation étudiée doivent être pris en compte, et l'ingénierie écologique adaptée à chaque cas particulier. Enfin, pour des raisons de simplicité de contrôle et de stabilisation, il est préférable de concevoir des systèmes dans lesquels les leviers d'action utilisés n'auront d'effet que sur une seule fonction. Même si ces règles ont d'abord été énoncées pour des systèmes macroscopiques, les passerelles avec les écosystèmes microbiens semblent nombreuses et accessibles. Pour mieux les distinguer voyons tout d'abord les principales différences entre ces deux grands types d'écosystèmes. 4.2.2. Macro et micro : des écosystèmes différents? 4.2.2.1. Multifonctionnalité
Une première différence importante entre les macro- et les microsystèmes est la notion de multifonctionnalité. Il existe en effet une très importante diversité métabolique dans le monde microbien, beaucoup plus importante que chez les macroorganismes. Ainsi, chez les microorganismes, moteurs des écosystèmes, la capacité à transformer des molécules en d'autres molécules est extrêmement importante et est influencée par de très nombreux paramètres biologiques, physicochimiques, interactionnels, etc. (159). Ceci rend particulièrement complexe la prise en compte du rôle bibliographique des microorganismes dans l'écosystème, celui-ci pouvant évoluer de façon importante et parfois inattendue en fonction des changements environnementaux, en particulier lors de l'application d'un levier d'action d'ingénierie écologique (rappelons, comme nous l'avons vu au paragraphe 1.5.2, que les connaissances sur la composante microbienne et son rôle souffrent encore de très fortes lacunes).
4.2.2.2. Représentation des organismes
Un autre point différencie la gestion des écosystèmes microbiens et macroscopiques. Certes nous savons que les microorganismes sont des acteurs majeurs pour différentes fonctions dans l'écosystème, mais ils sont malgré tout peu pris en compte dans les approches systémiques. Cette pauvre représentation vient tout d'abord d'une raison évidente qui est la difficulté de dénombrer les microorganismes par rapport aux macroorganismes, comme nous l'avons vu au paragraphe 2.1.2 (160161). Cette difficulté est cependant en diminution grâce aux nouvelles méthodes d'analyse de la diversité. Une seconde raison est liée à l'historique du développement de l'écologie microbienne. Les chercheurs du domaine sont en effet peu imprégnés des théories d'écologie de par leur cursus et sont plutôt orientés sur des thématiques biologiques. De plus, l'objet microbien fascine, les premiers développements ont donc largement favorisé les approches techniques au détriment de l'intégration de l'objet microbien dans des théories, d'où un déficit de conceptualisation (20). Enfin, un troisième point et, non des moindres, est la très difficile définition de la notion d'espèce (162-163) en particulier chez les microorganismes. L'absence de possibilité d'une classification plus précise (autre que par la proximité des séquences de l'ARNr 16S), qu'elle soit morphologique ou fonctionnelle, rend difficile l'identification des espèces et ainsi leur positionnement précis au sein de l'écosystème (164-169). 4.2.3. Vers une meilleure prise en compte des microorganismes
Comment donc améliorer la prise en compte des microorganismes dans les approches écosystémiques? Il est nécessaire de pouvoir manipuler cette composante dans les systèmes. Comme nous l'avons vu la progression se fait pas à pas, de la compréhension du fonctionnement des systèmes à la compréhension des perturbations de fonctionnement. Ceci passe par la mise en place de diagnostics, d'études de la résilience et résistance des systèmes et finalement la mise en place d'ingénierie. Parallèlement, il faut étudier l'intégration de la composante microbienne à chacun de ces niveaux. Dans ce sens, le livre «Ecologie microbienne du sol» (170) écrit en 1970 apportait déjà les premiers éléments, notamment concernant les informations techniques de l'écologie microbienne. On pouvait toutefois lui reprocher de ne pas être écrit sur des bases et des concepts d'écologie. Des progrès ont été faits mais beaucoup sont encore possibles à ce niveau. Robert Lensi pense même que « L'écologie microbienne n'aura atteint sa maturité que quand elle aura cessé d'être microbienne » (171). 4.2.3.1. Introduire l'objet microbien dans les théories
Les premières théories écologiques microbiennes ont été développées par des écologues non microbiens, et la prise en compte des microorganismes dans ces modèles est trop simplifiée. Pour progresser, il est primordial de promouvoir l'objet microbien dans les théories systémiques et de l'insérer dans les champs théoriques. Il faut également se poser la question de la nature des concepts que l'objet microbien est susceptible de faire évoluer par ses caractéristiques. Les microorganismes ont un double rôle, à la fois responsables des flux mais aussi biodescripteurs de systèmes ou d'écosystèmes dans lesquels l'impact des perturbations n'est pas simple à prendre en compte. Par ailleurs, il faut revisiter la notion de communauté fonctionnelle et voir comment l'insérer dans le champ théorique (172). En effet, la pertinence du modèle microbien n'est pas seulement liée à la prise en compte des individus, mais aussi à celle de leur diversité métabolique, qui est primordiale. Dans ce sens, Lensi met en garde contre l'idée générale que tous les microorganismes seraient partout, impliquant que toutes les fonctionnalités microbiennes seraient partout également, car selon lui tout ne serait pas forcément partout et il serait dommageable d'en faire un postulat pour la construction des modèles. Robert Lensi s'interroge sur les caractéristiques du modèle ou de la théorie idéaux. Ils comporteraient tout d'abord une valeur sélective des fonctions, la pertinence du modèle microbien étant en effet liée à la flexibilité des microorganismes capables d'effectuer diverses fonctions (171, 173). On peut citer à titre d'exemple la valeur sélective que peut conférer la capacité de respirer chez les microorganismes un autre accepteur d'électrons que le dioxygène, ce qui n'est pas envisage chez les macroorganismes. Il faudrait également insérer des éléments concernant l'évolution, le développement et la croissance des microorganismes, ainsi que des éléments d'interaction entre le fonctionnement microbien dans l'écosystème spatialisé, et les performances de cet écosystème. Ce type d'approche est actuellement possible sur des écosystèmes modèles, avec une diversité d'individus réduite (174-176).
4.2.3.2. Approche par espèces ou par trait? Comment intégrer à des échelles plus larges ces données? On
peut envisager deux possibilités d'approche. Tout d'abord une approche globale, mais peu fonctionnelle : dans ce cas on se sert de la biomasse, de la diversité ou encore de la densité totale des microorganismes, mais cela ne permet pas de prendre en compte la capacité multifonctionnelle des microorganismes. Une autre approche est plus «fonctionnelle», c'est-à-dire privilégiant les fonctions par rapport aux individus. Le problème de ce type d'approche est qu'elle risque de n'être que partielle car on ne choisit que quelques communautés fonctionnelles pour le modèle, étant donné qu'il en existe énormément, et trop pour tout intégrer On peut dans ce cas utiliser des rapports entre fonctions pour voir comment sont perturbées deux fonctions liées et voir la nature des liens générés entre ces fonctions. On ne s'intéresse pas uniquement à ce qui régule mais également à ce qui est régulé dans la fonction. On réfléchit au nombre de microorganismes capables d'exécuter les fonctions, lesquels les ont effectivement utilisées, quelles ont été les actions de régulation etc. En d'autres termes, on éclate les fonctions pour comprendre comment elles sont régulées et avoir des approches en termes de ratio, et pour voir l'influence de l'environnement. Ces deux stratégies sont complémentaires, mais l'une et l'autre sont limitées, car ne prenant pas assez en compte le côté fonctionnel dans un cas ou global dans l'autre. Il faut s'interroger sur les stratégies envisageables pour réduire ces limitations. Il faut par exemple essayer de décrire biologiquement au maximum ces systèmes afin de constituer un arsenal conceptuel et méthodologique solide (177-179).
4.2.3.3. Le mythe de l'apprenti sorcier?
Par ailleurs, il faut garder à l'esprit les conséquences non attendues et possibles des manipulations d'ingénierie écologique. Ainsi, même si elle ne s'y résume pas, cette dernière inclut fortement des manipulations biophysicochimiques des systèmes. En effet, une composante biologique peut être manipulée de manière directe, mais cela est restreint à de faibles éch elles spatiales pour les microorganismes. Il est donc plus simple de manipuler une autre composante biotique pour y arriver. (155). Se pose alors le problème de la multifonctionnalité abordé plus haut : en effet, si on applique une perturbation pour écarter une fonction par exemple, on peut en même temps gommer d'autres fonctionnalités. Différents cas se présentent : dans certains cas, ce n'est pas forcément un problème de ne plus avoir cette fonction, cela peut même être utile : on ne cherche pas forcément à en avoir toujours plus. Dans d'autres situations, cela peut être particulièrement gênant et aller jusqu'à bloquer le système. Les conclusions sont les mêmes dans le cas inverse où l'on apporterait une fonction supplémentaire non attendue. Le problème de l'apprenti sorcier se pose donc systématiquement. 4.2.4. Bilan
On peut conclure de cette partie que des éléments d'ingénierie écologique « générale », des théories écologiques ou encore des informations sur les microorganismes sont utilisables pour mettre en place l'ingénierie écologique des écosystèmes microbiens. Cependant, il faut assembler ces différents éléments et les compléter afin de construire un cadre théorique et des notions plus structurées qui permettront de tracer la voie aux développements futurs et aisés de l'ingénierie écologique des communautés microbiennes. Intéressons nous à présent aux apports possibles de cette discipline à la gestion des bioprocédés ou aux écosystèmes microbiens d'une manière plus générale. 4.3. La mutation de l'écologie microbienne des bioprocédés vers l'ingénierie écologique des écosystèmes microbiens des bioprocédés 4.3.1. Observer, reproduire, concevoir
Dans l'étude des bioprocédés ou des écosystèmes microbiens d'une manière plus générale, les ingénieurs et les écologues microbiens se sont longtemps concentrés sur certains groupes fonctionnels en particulier, présentant une fonction particulièrement intéressante, (les méthanogènes par exemple dans le cas de la digestion anaérobie). Ces supers microorganismes capables de réaliser la fonction cherchée dans un processus crucial étaient au centre des travaux et des préoccupations. L'approche basique consistait à essayer de favoriser et d'enrichir le bioprocédé avec ces microorganismes afin de réaliser les processus à moindre coût. Les actions contre productives étaient fréquentes du fait de la prise en compte non globale du système (183). Afin de simplifier les systèmes et de mieux les contrôler, les chercheurs se sont également intéressés à la possibilité de créer des bioprocédés ne faisant appel qu'à un nombre réduit d'espèces de microorganismes. C'est le cas notamment de bioprocédés alimentaires ou à haute valeur ajoutée (production d'acides aminés, antibiotiques, vitamines par exemple). Ils ne font bien souvent intervenir qu'un seul ou deux types de microorganismes, mais sont difficiles à mettre en place du fait de la production éventuelle de sous-produits indésirables, et ont des besoins énergétiques importants pour purifier substrats et produits. En 2008, Brenner s'interroge sur les possibilités d'ingénierie ouvertes par la biologie synthétique des microorganismes, et en particulier la création de consortia synthétiques de microorganismes (184). Ces systèmes semblent offrir des perspectives particulièrement intéressantes notamment pour passer outre les difficultés des bioproc s biologiquement plus « simples » (dégradation des sous-produits toxiques, utilisation de substrats complexes, possibilité de produire plusieurs molécules d'intérêt, moins de contrainte de gestion etc.). De plus, les systèmes comportant plusieurs microorganismes semblent plus stables et résistent mieux aux perturbations. Ils seraient plus efficaces et adaptatifs grâce aux mécanismes de communication développés entre microorganismes. Dans une revue de 2010, Sabra fait un bilan de l'utilisation de consortia microbiens synthétiques ou non dans les bioprocédés industriels (185). Il fait la liste des paramètres importants à prendre en compte pour comprendre les interactions entre microorganismes et qui influencent le fonctionnement des bioprocédés : le mutualisme où les espèces se fournissent les unes les autres des avantages, la syntrophie qui en est un cas particulier où les transferts de métabolites entre microorganismes sont essentiellement utilisés pour la croissance, l'amensalisme où un microorganisme affecte un autre microorganisme sans en être affecté lui-même, ou encore le commensalisme où un seul des microorganismes bénéficie de l'autre. Les microorganismes peuvent être en compétition pour les substrats, et il existe également des phénomènes de parasitisme ou encore de prédation, etc. Malgré de nombreuses études sur le sujet, déterminer les types d'interactions microbiennes qui sont impliquées dans les consortia microbiens demeure toutefois un défi important. Par exemple, il a récemment été montré que la production du peptide plantaricin par Lactobacillus 54 Synthèse bibliographique plantarum NC8 n'a lieu que si la bactérie est co-cultivée avec certaines souches de bactéries Grampositives ou encore avec ces mêmes cellules tuées à la chaleur (186). L'utilisation de ces systèmes simplifiés avec seulement quelques espèces, qu'elles soient synthétiques ou non, est sans doute prometteuse, à condition toutefois de bien comprendre et maîtriser les interactions entre individus au sein des systèmes 4.3.2. Utiliser, manipuler ou ajuster Aujourd'hui, à l'aide de la force d'appui fournie par les nouvelles sources de données à haut débit évoquées dans la partie 2.2.2, l'écologie microbienne pourrait passer d'un cadre purement descriptif à un cadre prédictif et quantitatif, dans lequel les principes écologiques seraient intégrés et exploités de construire des systèmes qui seraient biologiquement optimisés dans un but souhaité (55). Au lieu de recréer un écosystème artificiel simplifié, il serait donc légitime d'avoir l'ambition d'exploiter directement les communautés complexes, ainsi que leur capacité à s'autogérer et s'autoréguler. Les informations accumulées par l'écologie microbienne doivent être exploitées vers une ingénierie écologique des bioprocédés. Ces systèmes bénéficieront des avantages apportés par une communauté microbienne déjà constituée (stabilité et interactions) à un coût bien moindre que celui d'un système artificiel (187). En particulier dans le cas de la dégradation de la cellulose des déchets en conditions anaérobies, des flores de dégradation ont pu être en partie décrites et la fonction d'un certain nombre de groupes microbiens clés caractérisée (122). 5. Quels outils pour réaliser l'ingénierie écologique des bioprocédés? 5.1. Des paramètres à moduler 5.1.1. Notion de levier environnemental 5.1.1.1. Définition
Afin de modifier le système, ses fonctions, ses performances et sa population, différentes contraintes extérieures dont on sait qu'elles ont une influence sur l'équilibre et le fonctionnement de l'écosystème concerné peuvent être appliquées (188). Ces modifications de paramètres seront les leviers environnementaux qui nous permettront de guider l'écosystème vers un état qui nous est plus favorable. En les actionnant, on pourra induire des transformations au sein de l'écosystème microbien, de ses fonctions et de ses performances. Pour moduler ces transformations, on peut imaginer combiner différents leviers environnementaux. A terme, on peut même idéaliser l'ingénierie écologique des bioprocédés comme la gestion de bioréacteurs par une adaptation fine des paramètres de contrôle afin d'orienter les fonctions, et pouvant assurer une stabilité parfaite des procédés sur le long terme, quelles que soient les perturbations inattendues rencontrées. Cependant les écosystèmes microbiens demeurent des organisations très complexes et il convient dans un premier temps de dresser un inventaire de leviers environnementaux simples, faciles à mettre en oeuvre et utiles pour la conduite au jour le jour des bioprocédés (158).
5.1.1.2. Choix et sélection
Reprenons les attentes concernant les leviers environnementaux choisis. Ils doivent avant tout permettre de simplifier et de réduire la quantité de travail et d'énergie qui serait à mettre en oeuvre pour réaliser la transformation souhaitée sans recourir à l'ingénierie écologique (158). Ils correspondent donc globalement à des modifications de paramètres simples à mettre en oeuvre ou à maintenir et énergétiquement économiques par rapport à d'autres solutions. Par ailleurs, les leviers d'action ne doivent pas avoir d'effets secondaires trop contraignants ou négatifs pouvant aller à l'encontre de la démarche entreprise, en particulier dans les cas de multifonctionnalité (189). Il faut donc autant que possible être en mesure d'estimer et quantifier les conséquences qu'auront les leviers d'action, et si celles-ci seront réversibles ou non. Enfin, afin de valider la démarche d'ingénierie écologique des écosystèmes microbiens dans les bioprocédés, il est primordial d'identifier pour chaque grand type de modulation désiré des leviers environnementaux adaptés. Dans le cas des bioprocédés, il faut distinguer les notions de leviers et de paramètres opératoires. En effet, même s'ils peuvent parfois prendre la même forme (un paramètre physico-chimique par exemple), leur objectif n'est pas le même. 5.1.2. Leviers physico-chimiques 5.1.2.1. La température
La température est un paramètre souvent contrôlable dans les méthaniseurs hors-sol. Ceux-ci peuvent mettre à profit le biogaz produit au cours du procédé afin de maintenir la température à la valeur souhaitée. Ce paramètre a donc été largement étudié. En particulier, de nombreuses études se sont intéressées à l'influence de ce paramètre sur la dégradation des déchets et la production de biogaz. Voyons dans un premier temps les conclusions de ces travaux. Qu'il s'agisse des milieux naturels ou d'origine anthropique, la digestion anaérobie peut se dérouler dans une vaste gamme de température. Cependant, des études à différentes températures et dans des milieux variés ont permis d'identifier trois catégories de systèmes, en fonction de leur température de fonctionnement : les systèmes psychrophiles (5 à 20°C), mésophiles (20 à 45°C) et thermophiles (45 à 65°C). Bien que les grandes étapes métaboliques soient identiques pour les différentes conditions (Figure 16), la digestion à température élevée permet de raccourcir le temps de latence et d'accroître l'efficacité de la dégradation de la matière organique (190-192). Par conséquent, la digestion anaérobie aux températures thermophiles est généralement associée à une production totale élevée du biogaz et à une digestion plus complète (faible teneur en solides volatils dans les résidus de digestion). Par ailleurs, la digestion à des températures élevées favorise l'inhibition du développement des microbes pathogènes présents dans le déchet (151, 192-193). En revanche, les processus mésophiles utilisent moins d'énergie pour le chauffage (194) et sont généralement moins affectés par les effets inhibiteurs de l'ammoniaque libéré pendant minéralisation des protéines (195-196). Enfin, si la température devient trop importante (conditions hyperthermophiles) une diminution du rendement de méthane ainsi qu'une accumulation d'AGV sont observés. L'activité des méthanogènes non hydrogénotrophes est par ailleurs réduite à la température de 65°C (197). Ces études se sont souvent limitées à l'interprétation des données physico-chimiques sans prendre en compte les données de populations. Toutefois, l'impact de la température sur le développement des communautés microbiennes dans les procédés de digestion anaérobie est très important et différentes études qui le montrent ont été réalisées (198-202). La plupart de ces études se sont concentrées spécifiquement sur la structure de la communauté Archaea. Les études de Wu et al.(203), Hernon et al.(198) et Levén et al.(204), montrent que les populations microbiennes sont différentes selon les températures considérées. Figure 20 : Populations bactériennes identifiées au cours de la digestion anaérobie à différentes températures.
D'après (198) Cependant ces résultats ont été obtenus à partir de banques de clones et ne sont donc pas quantitatifs en théorie. Malgré tout, les populations microbiennes sont différentes et de ce fait la dégradation de mêmes substrats se fait par des communautés microbiennes adaptées aux différentes températures, probablement en faisant appel à des voies métaboliques spécifiques. Pour les archées, une étude de Conrad (205) montre qu'avec l'augmentation de la température on observe une part croissante de méthane produite via la voie hydrogénotrophe pouvant atteindre 100% à 50°C. Il semble donc que les voies de synthèse du méthane varient avec la température. De même, Li décrit en 2007 (122) les flores de dégradation de la cellulose à 35°C et 55°C et constate d'importantes différences. La température est donc un paramètre particulièrement important de la digestion anaérobie et pourrait être utilisée comme un levier d'action en ingénierie écologique. Ainsi un changement de température pourrait induire des modifications importantes de la flore du bioréacteur et des voies métaboliques utilisées. La façon dont des changements successifs pourraient permettre d'aboutir à une biomasse « optimisée » vis-à-vis d'une fonction donnée reste toutefois indéterminée à ce jour.
5.1.2.2. Le pH et les acides gras volatils
Le pH optimum de fonctionnement d'un digesteur anaérobie est aux alentours de la neutralité. Le pouvoir tampon du milieu joue un rôle important pour maintenir la stabilité du système. Ainsi, l'étape d'hydrolyse peut être fortement inhibée lorsque le pH chute suite à une accumulation des AGV (si le pH du milieu est trop faible, le différentiel avec le pH intra-cell est trop important et les acides intracellulaires s'accumulent). Veeken et al. ont d'ailleurs montré que le pH est le facteur majeur qui contrôle le taux d'hydrolyse du procédé de fermentation anaérobie, et non la concentration en AGV elle-même (206). De même pour la méthanogenèse, le pH optimum se situe entre 6,8 et 7,4 (131). Les archées méthanogènes peuvent être inhibées par une chute de pH. Cependant, une étude récente rapporte un résultat surprenant : la méthanogenèse à partir de l'acide acétique en condition acide (pH=4,5) aurait un rendement de méthane de 30% supérieur à celui obtenu en conditions neutres dans un réacteur mésophile (13). 5.1.3. Ajouter des substrats simples pour stimuler et orienter l'activité microbienne 5.1.3.1. Principe
Différentes sous-voies métaboliques de dégradation de la matière organique et en particulier de la cellulose sont possibles, c'est-à-dire que la dégradation peut passer par des intermédiaires différents. Les différents types de réactions peuvent se dérouler en même temps, ou alors certaines peuvent être privilégiées par rapport à d'autres. L'orientation vers un type de réaction plutôt qu'un autre dépend des paramètres physico-chimiques du milieu, mais également des microorganismes présents (9, 211). D'un point de vue opérationnel on peut préférer que la dégradation d'un substrat passe par certaines voies métaboliques plutôt que d'autres, dans le cas par exemple où un des intermédiaires formés pourrait être valorisable, ou alors pour orienter la dégradation vers des voies ayant des cinétiques de production de méthane plus importantes et donc des rendements accrus dans des méthaniseurs. Pour cela, on peut imaginer spécialiser un bioréacteur dans la réalisation d'une fonction ou d'un groupe de fonctions en particulier. Il faudrait dans ce cas que la contrainte imposée sur l'écosystème microbien du bioprocédé induise la dégradation du substrat selon des voies métaboliques spécifiques et contrôlées. Une des solutions possibles pour y parvenir serait de spécialiser la biomasse complexe initialement contenue dans le bioréacteur en une biomasse spécifique, pour laquelle la dégradation des substrats serait toujours orientée selon les mêmes voies métaboliques.
5.1.3.2. Le « priming-effect »
Afin d'illustrer ces idées, on peut citer comme parallèles les phénomènes dits de « priming-effect », ou effets d'amorce, introduits par Bingemann en 1953 (212). Ils ont été particulièrement étudiés dans les sols. Dans ce cas, on parle priming-effect lorsqu'un traitement du sol (addition d'une substance au sol) a pour conséquence une modification des performances de minéralisation de la matière organique (amélioration/modification/retard, etc.). Dans sa revue publiée en 2000 (213), Kuzyakov dresse un bilan des nombreux cas de priming-effect observés et émet des hypothèses pour les expliquer. Parmi les différents cas possibles, l'auteur distingue les situations où le priming-effect observé s'accompagne de modifications importantes des populations et de l'activité microbienne à l'origine de la minéralisation du sol. Même s'il apparaît évident dans ces cas que le traitement du sol a modifié les communautés microbiennes avec pour conséquence des changements dans les performances de minéralisation du sol, les mécanismes biologiques et physico-chimiques en jeu ne sont pas clairs. Les auteurs émettent par exemple l'hypothèse que l'ajout de nouveaux substrats carbonés facilement dégradables dans le sol pourrait augmenter l'activité microbienne en général et donc la minéralisation du sol, peut-être par cométabolisme. Cependant, d'autres hypothèses « non biologiques » sont également avancées. En 2003, Fontaine va plus loin et imagine que l'ajout de substrats simples provoquerait le développement d'une communauté spécialisée dans ces substrats simples, induisant une compétition globale pour l'énergie et les nutriments avec les microorganismes dégradant la matière plus complexe, ceux-ci devenant en conséquence plus actifs et performants (214). En 2005, Hamer étudie l'influence de différents substrats sur le priming-effect dans différents types de sols (215). Il met en évidence des priming-effect de plus ou moins grande importance (positifs ou négatifs) avec les différents substrats, et il semble que le priming-effect soit le plus important dans les sols les moins biodégradables où le substrat « simple » apporterait une grande quantité d'énergie aux microorganismes dégradant la matière complexe. Les mêmes auteurs travaillent également sur des systèmes avec ajouts répétés de substrats (216). Cette répétition a pour conséquence une augmentation du priming-effect qui se traduit par une meilleure dégradation des matières organiques complexes. Pour les auteurs, le co-métabolisme ou l'augmentation de la quantité de biomasse ne suffisent cependant pas à expliquer le priming-effect. Celui-ci serait également dû à des changements de structure de la communauté microbienne qui s'adapte au substrat ajouté. Toutefois, les auteurs ne disposent pas de données moléculaires pour étayer leurs hypothèses. Dans ce sens, Blagodatskaya (217) passe en revue les différentes hypoth es concernant les mécanismes de priming-effect et essaie de faire le lien avec les populations microbiennes. L'auteur souligne tout d'abord que le priming-effect n'implique généralement pas un unique mais plusieurs mécanismes et donc une succession de réactions et de communautés microbiennes. Cependant, la plupart des travaux se sont intéressés aux conséquences et pas aux causes du priming-effect, et malgré le développement des techniques moléculaires, peu de travaux les mettant en jeu sont répertoriés et peu de données écologiques explicatives sont disponibles. Les auteurs suggèrent de relier les futures observations à des données de biologie moléculaire, sur la dynamique et l'activité des communautés microbiennes, afin de progresser dans la compréhension des phénomènes observés. De même, Kuzyakov publie en 2010 une nouvelle revue sur le priming-effect (218). 5.1.4. S'inspirer d'autres systèmes microbiens
L'hydrolyse est généralement considérée comme le processus le plus lent et incomplet de la digestion anaérobie et reste donc l'étape limitante dans la dégradation du matériel cellulosique (220). Par conséquent, une augmentation du taux d'hydrolyse devrait mener à une augmentation de l'efficacité globale du procédé anaérobie de digestion. Les innovations permettant d'augmenter le taux d'hydrolyse sont cependant actuellement contraintes par le fait que l'écologie et les mécanismes microbiens de l'hydrolyse au cours de la dégradation anaérobie de la cellulose sont peu étudiés, en particulier au sein des ISDND ou des digesteurs anaérobies. Les systèmes biologiques animaux de dégradation de la cellulose semblent quant à eux être beaucoup plus performants, sans doute suite à un processus de sélection et d'évolution très long. Par exemple, le consortium microbien présent dans le rumen de bovin hydrolyse la cellulose à 60-65% dans une durée relativement courte (jusqu'à 48 h), et il a même été rapporté que les termites sont capables d'assimiler la cellulose de bois à un taux supérieur à 90% (221). Dans les systèmes microbiologiques complexes, comme dans le sol ou dans un méthaniseur, la cellulose est décomposée à une échelle de temps beaucoup plus longue allant du mois à l'année. De plus, nous l'avons vu, un petit pourcentage de la cellulose est inaccessible aux attaques enzymatiques, particulièrement si elle est partiellement couverte par de la lignine. Des bioprocédés reproduisant ou mimant les systèmes de digestion anaérobie naturels pourraient donc se montrer particulièrement performants pour accélérer cette étape d'hydrolyse (222-223). Dans le but d'essayer d'exploiter les fonctions des digesteurs naturels, on peut imaginer ajouter un consortium microbien plus performant à travers des apports de biomasse exogène, ou bioaugmentation. Intéressons nous plus en détail aux systèmes animaux de dégradation de la cellulose, en particulier aux ruminants, puis aux potentialités de bioaugmentation ou co-inoculation.
5.1.4.1. Exemple d'un système particulièrement performant : le rumen ■ Quelques éléments clés
Les humains, et d'une manière plus générale les autres animaux
n'ayant qu'un
se
ul
e
stomac
, ne peuvent pas digérer la cellulose, le plus abondant
des
polymères organiques. Au contra
ire, les ruminants
fourni
ssent un habitat, le rumen,
à
des microorganismes anaérobies qui peuvent le faire. La digestion dans le rumen est même considérée comme le plus important des procédés de fermentation (224) avec un volume total d'environ 2.1011 L (225). Le rôle clé des microorganismes dans ces systèmes peut être illustré par le fait qu'environ 90 % des acides aminés qui atteignent l'intestin grêle proviennent des microorganismes du rumen (224). De plus, il semble que l'écosystème ruminal soit le plus élégant et évolué des systèmes digérant la cellulose dans la nature (225). En effet, le tractus gastro intestinal des herbivores contient un microbiome qui procède, de façon hautement spécialisée, à l'hydrolyse et la fermentation rapides de la partie lignocellulosique de leurs aliments. Comme les aliments ne restent dans le rumen que pour une courte durée, la vitesse de dégradation de la cellulose doit y être très rapide. Celle-ci est facilitée par la rumination, au cours de laquelle les aliments retournent dans la bouche pour être remâchés. Ceci permet une fragmentation importante de la cellulose, et la surface accessible aux microorganismes augmente considérablement (jusqu'à 106 fois) grâce à la diminution de la taille des particules. La dégradation de la cellulose est ainsi plus efficace (224).
■ Flore du rumen
L'écosystème microbien du rumen contient environ 30 espèces principales de bactéries (10 10-1011/ml), 40 espèces principales de protozoaires (105-107/ml) et 5 espèces principales de champignons (<105/ml) (226). Enfin, seulement 4% des microorganismes ruminaux sont des archées (227). Les genres principaux retrouvés sont Methanobrevibacter, Methanomicrobiaceae et Methanosarcinaceae (228-229). Parmi les bactéries, les genres Bacteroidetes et Firmicutes sont souvent prédominants (230). On peut classer les bactéries du rumen en cinq groupes : les bactéries libres les bactéries attachées de façon lâche à la nourriture les bactéries attachées de fa ferme à la nourriture les bactéries associées à l'épithélium du rumen les bactéries associées à des protozoaires ou à des champignons Les groupes 2 et 3 représentent environ 75% des populations microbiennes totales (226). Le rumen fonctionne avec une densité en microorganismes très élevée (environ 15% en masse) et se distingue par une communauté microbienne dense, active et stable qui réalise une hydrolyse et une fermentation rapides de presque tous les composants de la biomasse (225). Néanmoins, la fermentation de la cellulose peut être augmentée par des conditions environnementales favorables telles qu'une température constante de 39°C, un potentiel d'oxydoréduction de -0.4V ou un pH neutre (225). ■
Hydrolyse dans le rumen
Les bactéries cellulolytiques prédominantes du rumen sont Fibrobacter succinogenes, Ruminococcus flavefaciens et Ruminococcus albus (226). Les espèces dominantes présentes dans le rumen peuvent varier en fonction de l'espèce animale, du régime alimentaire, de la localisation géographique et des méthodes de quantification, mais en général F. succinogenes est plus présente dans le rumen que les ruminococci (231). Ces bactéries ont développé une spécialisation nutritionnelle extrêmement importante pour la cellulose (232). Elles sont capables d'utiliser la cellulose et ses produits d'hydrolyse comme leur principale source d'énergie (226). Leur activité cellulolytique est également la plus efficace de tous les microorganismes mésophiles, avec un taux de dégradation de 0.1 h-1 (qui correspond à la vitesse de croissance spécifique des bactéries cellulolytiques du rumen sur la cellulose (225)). La bactérie anaérobie thermophile Clostridium thermocellum est la plus efficace avec un taux de dégradation de 0.16 h-1. La quantité de bactéries (matière sèche) dans le rumen étant d'environ 10 g.L-1, ceci conduit à un rendement de dégradation de 5 g de cellulose L-1 h-1 (224), c'est-à-dire 288 kg de DCO.m-3.j-1 à comparer aux 1 à 40 réalisés par les méthaniseurs industriels (211).
■ Rumen et méthanogenèse
L'étape de méthanogenèse permet aux communautés microbiennes du rumen de maximiser la récupération énergétique globale de la nourriture sous forme d'ATP par le transfert de H2. Dans le rumen, la méthanogenèse a lieu presque complètement sous forme de la réduction du CO 2 pour la voie hydrogénotrophe ( ). Théoriquement, la méthanogenèse acétoclaste est également possible ( ). En pratique cette réaction n'a quasiment pas lieu dans le rumen car le temps de rétention est plus cours que le temps moyen de doublement des méthanogènes acétoclastes (225). Les écosystèmes animaux de dégrad anaérobie de la cellulose dans le rumen sont donc particulièrement efficaces, et un méthaniseur de déchets pouvant les reproduire serait très intéressant. Voyons quelles sont les possibilités et les difficultés de transposition d'une flore dans un écosystème artificiel.
5.1.4.2. Bioaugmentation
De nombreux travaux font état d'expériences de bioaugmentation avec des biomasses variées afin d'apporter une fonctionnalité non présente dans un écosystème microbien, ou encore pour remplacer l'écosystème présent par un autre plus performant. En particulier, le traitement des eaux usées fait souvent appel à de la bioaugmentation en conditions aérobies. Les effets de ces bioaugmentations sont selon les cas plus ou moins efficaces (183). 5.1.5. D'autres leviers d'action sont possibles
Bien entendu, les exemples donnés dans les paragraphes précédents ne constituent pas une liste exhaustive des leviers d'action possibles, mais sont quelques exemples de paramètres facilement modulables et dont on peut imaginer qu'ils auront un effet visible sur les systèmes. On peut essayer de construire d'autres leviers en modifiant les paramètres physico-chimiques des milieux, comme la concentration en certains sels ou éléments rares. Des modifications de la biomasse complexe sont également possibles pour éliminer certaines de ses composantes, par aération par exemple ou d'une manière plus complexe en faisant appel à des virus qui détruiraient spécifiquement certains types de microorganismes (9, 211). On peut également travailler sur la conception des méthaniseurs pour faciliter le développement de certaines populations, par exemple en procurant des supports pour des microorganismes se développant en biofilm, ou en ajustant le brassage au sein des réacteurs pour mieux convenir aux populations à favoriser. On peut aussi jouer sur la nature et la composition du substrat introduit en entrée de méthaniseur. Ainsi «codigérer» plusieurs substrats en même temps pourrait se révéler bénéfique pour les différentes populations de microorganismes produisant des intermédiaires utiles aux unes et aux autres mutuellement. La palette des leviers possibles est donc très grande, et il est impossible de la définir a priori avec les connaissances actuelles. Des connaissances approfondies de la diversité microbienne des bioprocédés, de leur métabolisme et de leur physiologie, en prenant en compte l'écosystème d'une manière globale sont encore à acquérir. L'ingénierie des bioprocédés va se construire progressivement, pas à pas, afin d'arriver à des modulations de plus en plus fines des processus avec des leviers environnementaux és. Le défi est de déterminer quels types de perturbations permettront de satisfaire la mise en place d'un système répondant à nos besoins (239). 5.2. Sur quels concepts écologiques s'appuyer? Nous l'avons vu au début de la partie précédente, afin
de
pouvoir mener à bien l'ingénierie écologique des bioprocédés, un cadre théorique est nécessaire. Différentes thé
ories écologiques ont été développées afin de faciliter les mesures de la diversité des espèces, des évolutions de répartition au sein de la communauté ou encore les effets de différents paramètres et d'interactions sur les populations. Cependant, ce cadre théorique a été développé autour de macrosystèmes, mais il n'existe que peu d'éléments développés spécifiquement pour les écosystèmes microbiens. Toutes les théories écologiques macroscopiques ne peuvent pas être adaptées à une échelle microscopique. Voyons sur lesquelles nous pouvons nous appuyer. 5.2.1. Mesure de la stabilité, résilience et résistance
Dans la gestion des bioprocédés, il est très important de pouvoir déterminer quand un système est stable mais plus difficile de prévoir son instabilité. De même, il est important de savoir comment un système est capable de résister à une perturbation extérieure, et comment il se comportera dans le cas où les conditions environnementales redeviendraient les mêmes après une perturbation, en d'autres termes pourrait-il retrouver son état normal (résilience). Dans un cadre plus écologique et plus global, la gestion des écosystèmes en vue de l'atteinte d'états stables et résilients constitue un objectif très largement partagé. Différentes composantes de la stabilité ont d'ailleurs été énoncées : la résilience, qui est mesurée par la vitesse de retour à l'état d'équilibre initial suite à une perturbation ; la résistance, qui traduit la capacité à rester à l'état original lors d'une perturbation ; la robustesse, qui estime le niveau de perturbation que peut tolérer un système avant de passer dans un autre état ; et enfin la persistance, qui indique si un système est capable de se maintenir au cours du temps ou non. En particulier, de très nombreux travaux théoriques et expérimentaux ont été réalisés afin d'étudier la relation entre biodiversité et stabilité fonctionnelle et microbienne des systèmes (21, 240). L'évolution des conclusions sur cette relation montre à quel point la stabilité est une notion difficile à appréhender et à comprendre. Ainsi, dans les années 60, on estime que la diversité (complexité) du système engendre la stabilité. Plus il y a de flux d'énergie (interactions) entre les membres de l'écosystème, plus celui-ci est stable à la perte de l'un d' eux. Des travaux réalisés au début des années 70 vont plutôt dans le sens d'une corrélation inverse, la complexité du système engendrerait une moindre stabilité, le système pouvant moins facilement retourner à son état d'équilibre suite à une perturbation du fait de la plus grande complexité des interactions et donc d'un risque accru de propagation des perturbations dans le système, celles-ci pouvant se maintenir. Finalement, dans les années 90, de nouvelles approches de la notion d'écosystème, faisant un lien explicite entre la variabilité des espèces et la variabilité des propriétés des écosystèmes ramènent à l'idée initiale que la diversité engendre la stabilité. En particulier, on pense que la biodiversité tamponne l'effet des perturbations sur le déroulement du processus. Des compensations fonctionnelles dues aux réponses différentes des espèces à la perturbation donnent l'assurance d'un meilleur fonctionnement de l'écosystème, les espèces redondantes pouvant montrer une complémentarité temporelle assurant la continuité des fonctions. Cependant, malgré tous les travaux réalisés pour comprendre les phénomènes à l'origine de la relation stabilité-diversité, les écologues débattent encore aujourd'hui sur l'universalité de la corrélation positive entre ces deux notions (241-248). Ces approches ont principalement été réalisées sur des systèmes macroscopiques, mais depuis quelques années, des travaux sur des communautés microbiennes ont été publiés précisant l'importance de ces notions. Kaewpipat étudie l'évolution de populations microbiennes dans un digesteur aérobie au cours 65 Synthèse bibliographique du temps. Il observe que des réplicats préparés dans les mêmes conditions présentent des dynamiques de diversité des communautés importantes, même si les performances globales des systèmes ne varient pas (249). De plus, pendant un temps les dynamiques sont les mêmes dans les réplicats, mais elles finissent par diverger. L'auteur suggère pour éviter les divergences de préadapter les communautés aux conditions expérimentales. On retrouve des conclusions proches dans les travaux de Fernandez (250) et de Zumstein (251). Fernandez étudie par ARDRA les dynamiques des archées et des bactéries d'un réacteur de méthanisation. Elle observe des évolutions dans les populations d'archées et d'importantes variations chez les bactéries au cours du temps, ainsi que des modifications dans les métabolismes mis en jeu. Malgré cela, les performances globales du système restent inchangées. Il semblerait donc dans ce cas qu'une extrême plasticité dans la composition des communautés microbiennes permette de maintenir un fonctionnement stable de l'écosystème Zumstein obtient des résultats équivalents avec analyse par SSCP de réacteurs anaérobies. Elle suggère que la dynamique importante observée serait due à différents paramètres biotiques, comme des phages ou de la prédation (le système étant continu et les paramètres physicochimiques constants). De la même façon, Hoshino s'intéresse en 2006 aux communautés de dégradation aérobie des eaux usées (252) et montre l'importance de la succession de différentes communautés pour mettre en place un processus aux performances stables. Pour McMahon, les concepts de perturbation et stabilité sont primordiaux pour comprendre et gérer les systèmes microbiens. Ils doivent être considérés de différentes façons (239). Tout d'abord il faut considérer les perturbations abiotiques qui sont inévitables. Dans ce cas si l'on souhaite maintenir la redondance fonctionnelle pour résister aux perturbations et maintenir un système stable, il faut maintenir une diversité microbienne élevée. 5.2.2. Mesure de la diversité et de la dynamique des populations
En pratique, quand on étudie la biodiversité d'un écosystème, l'espèce est l'unité la plus accessible, de cette façon, la diversité peut être mesurée de plusieurs manières (richesse, uniformité) (255). Toutefois, en microbiologie, comme nous l'avons vu, la notion d'espèce fait encore l'objet de nombreux débats. Différentes mesures de la diversité sont heureusement possibles indépendamment d'une définition précise des espèces. Par exemple, la diversité génétique rend compte de l'ensemble de l'information génétique contenue dans les êtres vivants, elle est le reflet de la variabilité génétique entre espèces et au sein d'une même espèce mais n'est pas accessible aisément et fournit une masse d'informations longue à interpréter (256). Les microorganismes peuvent ainsi être regroupés en phylotypes en fonction de la séquence du gène codant pour l'ARNr 16S, mais cela ne permet pas toujours de faire le lien avec espèce et fonction comme dans le cas des systèmes macroscopiques. Une autre façon intéressante de mesurer la diversité est de traduire les informations données par des marqueurs biologiques en indicateurs, appelés indices de diversité. Ceux-ci donnent pour un écosystème à un moment donné une estimation de la diversité (257-258) exprimée sous forme d'une valeur numérique, plus aisée à interpréter.
5.2.2.1. Les indices de diversité
De nombreux indices de diversité ont été développés à l'échelle macroscopique pour caractériser les populations des écosystèmes. A l'échelle microbienne, les techniques de fingerprinting, ou plus généralement les techniques utilisant un marqueur moléculaire pour estimer la proximité ou la différence entre des microorganismes semblent être les sources d'informations les plus pertinentes et simples pour estimer la diversité des populations. De fait, différentes tentatives d'appropriation en écologie microbienne des connaissances développées en écologie classique ont été réalisées. D'un point de vue pratique, les données issues des techniques d'empreinte génétique (comme l'ARISA que nous avons utilisée dans ce travail de thèse), fournissent différents types de données : pics de fluorescence (bandes sur un gel) dans les profils (exploitation de données qualitatives type absence/présence de pics) et/ou leur abondance relative (exploitation de données quantitatives basées sur l'aire ou la hauteur des pics de fluorescence). Selon les indices de diversité utilisés, toutes ou partie de ces informations sont exploitées. Kapley estime que les deux principaux facteurs à prendre en compte pour quantifier la diversité microbiologique sont la richesse et l'uniformité (« evenness ») (255). La richesse est une mesure des différentes sortes de microorganismes présents dans un endroit en particulier et l'équitabilité permet de comparer l'abondance relative des différentes espèces (si une espèce est beaucoup plus abondante que les autres, l'équitabilité est faible). L'indice de diversité idéal devrait refléter le nombre de biotypes différents, leur abondance relative et les distances taxonomiques entre eux. Les indices les plus couramment utilisés sont les indices de Simpson et de Shannon (259). Ils font appel à la richesse en espèce, et pondèrent les groupes en fonction de leur abondance. L'indice de Simpson peut se calculer de la manière suivante : n D oi 2 i 1 où n est la taille totale de l'échantillon (par exemple le nombre d'OTUs (operational taxonomic unit) ou avec des profils ARISA le nombre de bandes identifiées d'un échantillon) et oi l'abondance relative du ième phylotype (OTU ou bande d'un profil ARISA). L'indice de Simpson est une mesure de la probabilité de "tirer" dans l'échantillon deux individus du même phylotype (256). Il est également utilisé sous la forme 1-D, -logD, ou encore 1/D qui varie de 1 (pour une communauté ne contenant qu'un seul phylotype) à l'infini (pour des populations dont la diversité biologique est de plus en plus grande). L'indice de Shannon est défini de la manière suivante : n H oi ln(oi ) i 1 où n est la taille totale de l'échantillon et oi représente l'abondance/intensité relative de l'i-ème OTU. L'indice de Shannon caractérise la redondance de la communauté. Il reflète la difficulté de prédire l'identité de l'individu suivant que l'on cherche à identifier. C'est une mesure d'entropie de l'échantillon : pour une communauté dans laquelle chaque organisme est distinct des autres, l'entropie est maximisée (256). Ainsi plus la communauté est riche en OTUs, plus H augmente. Cet indice est influencé par les variations d'abondances des OTUs rares (260). Ces deux indices sont utilisés pour estimer la diversité d'échantillons que l'on souhaite comparer entre eux. Par exemple Cardinale et al. (261) comparent les performances de plusieurs sets d'amorces universelles ciblant les bactéries pour l'ARISA par l'intermédiaire des indices de Shannon et Simpson obtenus à partir de différents types d'échantillons. Ces indices, et d'une manière plus générale les indices de diversité biologique, apportent une information globale sur la richesse en espèces des communautés. Cette approche par similarité/dissimilarité est qualitative (données de présence ou absence) mais ne tient pas compte des abondances relatives entre les espèces. Hill présente d'autres indices de diversité ou modèles d'abondance que nous n'aborderons pas ici (259). Afin d'exploiter les indices de diversité obtenus, différentes méthodes statistiques sont possibles. Kent compare par exemple les communautés bactériennes de différents lacs (264) à l'aide d'ANoSIM (ANalysis of SIMilarity) qui permet de déterminer si des profils sont statistiquement différents. De même Nelson l'utilise pour déterminer l'impact du NaCl sur les populations microbiennes du sol (265). Nous ne présenterons pas en détail les différents tests possibles, mais ceux utilisés dans ce travail de thèse seront présentés au fil du texte du manuscrit. Ces indices ont fait leurs preuves dans le domaine macroscopique et sont aujourd'hui de plus en plus utilisés dans les systèmes microbiens. Intéressons-nous de manière prospective aux développements des mesures de la diversité dans les systèmes macroscopiques afin d'imaginer les perspectives d'évolution de mesure de la diversité des systèmes microbiens.
5.2.2.2. De nouvelles mesures de la diversité
Marzorati (266) propose en 2008 un outil d'interprétation théorique des profils de fingerprinting en général, basé sur trois paramètres. Un représente la richesse, l'autre la dynamique et le dernier des traits fonctionnels. Le calcul de ces trois paramètres permet de représenter les communautés microbiennes (profils de diversité) en trois dimensions et de les regrouper. Par ailleurs, de nouveaux indices tendent à être utilisés pour l'écologie des systèmes macroscopiques afin de réaliser les mesures de diversité les plus fonctionnelles possibles. En effet, jusqu'à présent les approches étaient plutôt taxonomiques on a maintenant une approche par trait, pour essayer de plus se focaliser sur l'aspect fonctionnel. On essaye de mettre en relation l'identité fonctionnelle avec un classement taxonomique (267). Le lien diversité fonction est plus difficile à mettre en oeuvre car il faut faire appel à des données sur le fonctionnement de l'écosystème (ce serait par exemple la fonction de dégradation de la cellulose dans notre cas). Les connaissances sont encore trop lacunaires concernant les écosystèmes microbiens, mais des approches corrélatives seraient idéales afin de mettre en lien l'abondance d'une espèce particulière avec une quantification d'un paramètre (dégradation de la cellulose, production de gaz ou autre donnée physicochimique). Par ailleurs, d'autres indices prennent en compte l'identité, l'abondance et les différences entre les espèces (entropie quadratique) (268). 6. Conclusion
Cette synthèse introductive a permis de présenter le contexte du travail qui a été réalisé pendant cette thèse. On voit se dessiner les enjeux de l'implantation de l'ingénierie écologique au sein des bioprocédés microbiens. Des travaux sont nécessaires pour une bonne mise en place, mais de nombreux outils sont déjà disponibles. L'écologie, l'ingénierie et la microbiologie doivent être adaptés pour mieux soutenir l'interdisciplinarité (239) et faire converger les concepts et les approches. Ainsi, on pourra atteindre l'objectif de gestion optimisée et contrôlée des bioprocédés de dégradation anaérobie des déchets lignocellulosiques à travers l'ingénierie écologique des communautés microbiennes. ▬ Problématique et objectifs Problématique et objectifs
La production croissante de déchets et les objectifs de réduction des impacts environnementaux associés poussent à l'amélioration des méthodes actuelles de gestion. Parmi celles-ci, les éléments de contexte présentés dans le chapitre précédent mettent en avant les potentialités importantes offertes par les bioprocédés de traitement anaérobie des déchets. Ces méthodes reposent sur l'exploitation des fonctions de microorganismes capables de réaliser la dégradation de macromolécules en molécules plus petites, jusqu'au méthane, composant énergétique valorisable du biogaz. Pour améliorer ces modes de traitement, il faut mieux comprendre le fonctionnement de l'écosystème microbien des bioprocédés et apprendre à stabiliser, modifier, voire orienter son comportement. Pour cela la démarche d'ingénierie écologique semble fournir des concepts et des méthodes nouveaux, très prometteurs bien que peu ou pas encore exploités dans ce type de système. Dans cette perspective, l'objectif du travail présenté dans ce manuscrit est d'évaluer la possibilité de mettre en place une démarche d'ingénierie écologique des communautés microbiennes dans les bioprocédés de traitement anaérobie des déchets ligno-cellulosiques. En ce sens, je me suis interrogé sur les conséquences écologiques et métaboliques de l'application de leviers environnementaux aux écosystèmes microbiens complexes de bioprocédés anaérobies. Pour cela, plusieurs leviers environnementaux ont été sélectionnés. Les conséquences des perturbations apportées par ces leviers sur les dynamiques métaboliques et écologiques de bioréacteurs anaérobies dégradant de la cellulose ont été évaluées. Différents indicateurs physico-chimiques ont été utilisés pour caractériser la dégradation de la cellulose (production de molécules intermédiaires, production de gaz). Les outils de la biologie molé ont permis de caractériser les dynamiques microbiennes à l'échelle des communautés (par fingerprinting) ou des individus (par séquençage). L'utilisation d'isotopes stables (cellulose marquée 13C), technique de « stable isotope probing » a permis de réaliser un traçage précis des flux de matières (intermédiaires de dégradation de la cellulose enrichis en 13C) et des microorganismes impliqués dans la chaîne de dégradation de la cellulose (groupes microbiens fonctionnels). Les bioréacteurs utilisés sont des modèles simplifiés, ne reproduisant pas l'ensemble des contraintes de systèmes industriels, mais idéaux dans une première approche. Parmi les différents leviers environnementaux possibles, trois ont été retenus. Le premier était physicochimique. Il s'agissait de la température. Le deuxième consistait en une adaptation préalable d'une biomasse complexe par incubation avec des molécules simples avant mise en présence de cellulose. Le dernier consistait en la co-inoculation de diverses biomasses exogènes avec une boue anaérobie.
| 36,638
|
30/dumas.ccsd.cnrs.fr-dumas-02156744-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 6,688
| 12,323
|
Apport de la PCR dans les méthodes de biologie moléculaire appliquées au diagnostic des adénomes hypophysaires Yves Rosuel To cite this version Yves Rosuel Apport Sciences pharmac 1994 mas 744 fr AVERTISSEMENT LIENS LIENS Code de la Propriété Intellectuelle. articles L 122. 4 Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/juridique/droit-auteur http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm UNIVERSITE Joseph FOURIER
- G
RENOBLE
I
- Sciences Technologie Méd
ecine
D U.F.R DE PHARMACIE 11111111m ' îii
11111111
11 5 046269
3 Domaine de la Merci - La Tronche ANNEE: 1994 N• D'ORDRE : 1o >i-- APPORT DE LA PCR DANS LES METHODES DE BIOLOGIE MOLECULAIRE APPLIQUEES AU DIAGNOSTIC DES ADENOMES HYPOPHYSAIRES THESE Présentée à l'Université Joseph FOURIER GRENOBLE I pour obtenir le grade de: DOCTEUR EN PHARMACIE Par M. Yves ROSUEL [Données à caractère personnel] Cette thèse sera soutenue publiquement le 9 Septembre 1994. Devant Melle le Professeur C.AGNIUS-DELORD, Président du Jury et M. le Professeur M.COMET M. le Professeur J.ROCHAT Mme M.VINDIMIAN, Ingénieur en Chef UNIVERSITE Joseph FOURIER - GRENOBLE 1 - Sciences Technologie Médecine U.F.R DE PHARMACIE Domaine de la Merci - La Tronche N•D 10RDRE: ANNEE: 1994 APPORT DE LA PCR DANS LES METHODES DE BIOLOGIE MOLECULAIRE LIQUEES AU DIAGNOSTIC DES ADENOMES HYPOPHYSAIRES THESE
Présentée à l'Université Joseph FOURIER GRENOBLE I pour obtenir le grade de : DOCTEUR EN PHARMACIE Par M. Yves ROSUEL [Données à caractère personnel] Cette thèse sera soutenue publiquement le 9 Septembre 1994. Devant Melle le Professeur C.AGNIUS-DELORD, Président du Jury et M. le Professeur M.COMET M. le Professeur J.ROCHAT Mme M. VINDIMIAN, Ingénieur en Chef
*2 REMERCIEMENTS A Mademoiselle le Professeur C.AGNIUS-DELORD, Président
de th
èse
, Pour sa compétence, sa gentillesse et sa grande disponibilité à mon égard.
Elle
me fait le grand honneur de présider cette thèse,
qu
'elle trouve ici la marque de ma reconnaissance et de mon profond respect. A Monsieur le Professeur
M
.
COMET, Les 2 années passées dans son service resteront pour moi un excellent souvenir. Je suis très heureux qu'il ait accepté de sièger dans mon jury. Qu'il trouve ici le témoignage de mes vifs remerciements. A Monsieur le Professeur J
.ROCHAT
, Je suis très honoré de le compter dans mon jury. Je le remercie sincèrement
de
sa grande
amabilité
et de l'aide apportée. A Madame
M.VINDIMIAN
,
Ingénieur
en
Chef
, Je la remercie vivement de ses précieux conseils pour l'élaboration de cette thèse. Je lui suis reconnaissant d'avoir accepté de siéger dans mon jury. 3 Ma gratitude
à
: Made
moiselle G.
M
EFFRE
,
Docteur
en Pharmacie, sans qui ce travail n'aurait pu aboutir. Mes parents, Mes frères, Mes Grands-Parents, Toute ma Famille, Tous mes Amis, Mademoiselle
H.GRANGER.
PLAN ABREVATIONS INTRODUCTION GENERALE RAPPELS PHYSIOPATHOLOGIQUES: I -
L
'
ANTEHYPOPHYSE : 1 - La prolactine 2 - L'hormone de croissance
II - LES
TUMEURS HYPOPHYSA
IRES
: 1 - Les prolactinomes 2 - Les adénomes somatotropes 3 - La maladie de Cushing 4 - Autres adénomes secrétants 5 - Adénomes non secré
tants
: adénomes chromophobes
5 METHODES DE BIOLOGIE MOLECULAIRE: I - EXTRACTION DES ARN TOTAUX : 1 - Intérêt 2- Méthode: 2.1
Choix de la méthode : isolement des ARN totaux par extraction au thiocyanate de guanidine - phénol - chloroforme 2.2 Protocole : 2.2.1 Réactifs 2.2.2 Procédé
e
xpériment
al
3
- Résultats :
3.1 Contrôle de qualité : électrophorèse en gel d'agarose coloré au bromure d'éthydium 3.2 Détermination spectrophotométrique des taux d'ARN: 3.2.1 Principe 3.2.2 Tableau des résultats
3.3 Conclusion 6 II - ANALYSE DES TRANSCRITS : LE NORTHERN - BLOT 1 - Principe 2 - Protocole : 2.1
Pr
éparation
d
'un
marqueur de poids molé
culaire radioactif :
2.1.1
Notions de radioprotection
relatives
à la
manipulation
du phosphore
32. 2.1.2 Réactifs 2.1.3 Protocole 2.1.4 Résultats 2.2 Electrophorèse en gel d'agarose dénaturant: 2.2.1 Réactifs 2.2.2 Protocole 2.3 Transfert sur membrane : 2.3.1 Réactifs 2.3.2 Protocole 2.4 Hybridation : 2.4.1 Marquage radioactif des sondes 2.4.2 Hybridation 2.4.3 Autoradiographie 3 - Résultats 7
III - LA REVERSE TRANSCRIPTION POLYMERASE CHAIN REACTION : LART-PCR 1 - La Reverse Transcription : 1.1 Principe 1.2 Protocole : 1.2.1 Réactifs
1.2.2 Protocole 1.2.3 Quantification
de
la synthèse de cDNA 2 - La Polymérase Chain Reaction : 2.1 Principe 2.2 Choix et méthode d'extension des amorces 2.3 Protocole : 2.3.1 Réactifs 2.3.2 Protocole 2.4 Contrôle du produit d'amplification par électrophorèse en minigel d'agarose: 2.4.1 Première série 2.4.2 Deuxième série 8 2.5 Validation du produit d'amplification par hybridation par sondes oligonucléotidiques marquées au phosphore 32 : technique du SOUTHERN - BLOT : 2.5.1 Principe 2.5.2 Protocole 2.5.3 Résultats
IV -TABLEAU RECAPITULATIF CONCLUSION BIBLIOGRAPHIE ANNEXES 9 ABREVIATIONS
A adénine ACTH hormone adénocorticotrope ADN(ou DNA) AMV-RTase Avian Myoblastosis Virus - Reverse Transcriptase ARN(ou RNA) ARNm ARNr acide ribonucléique ribosomial AS activité spécifique ATP BBP bleu de bromophénol Bet bromure d'éthydium c cytosine cDNA Ci curie cpm coup par minute DO dpm désintégration par minute EDTA acide éthylène diaminotrétacétique FSH hormone folliculostimulante G guanine hGH hormone de croissance humaine hPRL prolactine humaine 10 I taux d'incorporation IGF insuline like growth factor kb kilo base LH hormone de lutéinisation M molaire mg milligramme ml millilitre mm millimètre mM millimolaire mmol millimol e MOPS acide 3 - (N-morpholino) propanesulfonique N normalité ng nanogramme nm nanomètre P32 (ou P32) phosphore 32 PCR pM picomolaire PM PNK Polynucléotide Kinase PN poids/volume RNase ribonucléase RT RT-PCR Reverse Transcription-Polymerase Chain Reaction s unité de constante de sédimentation SDS sodium dodécylsulfate ssc solution Sodium-Citrate SSPE solution Sodium-Phosphate-EDTA 11 T thymidine Td température de dissociation TBE tampon Tris-Borate-EDTA TSH thyréostimuline u unité μCi microcurie μg microgramme μl microlitre UV ultraviolet V volt VN volume/volume -*-*-*-*-*-*-*-*-*-*-
Le but de ces travaux réalisés dans le Service de Médecine Nucléaire du Centre Hospitalier Régional A.MICHALLON à GRENOBLE est de caractériser qualitativement un type d'adénome hypophysaire, à l'aide de la méthode d'amplification de gènes par " Polymerase Chain Reaction 11 ( PCR ). Nous nous sommes limités à l'étude d'adénomes à prolactine ou à hormone de croissance. En quelques années d'existence, la PCR a bouleversé les possibilités d'investigation en biologie moléculaire et en recherche médicale. - Les cellules thyréotropes sécrétant la thyréostimuline ( TSH ), localisées dans la partie centrale de!'antéhypophyse. - Les cellules corticotropes sécrétant l'ACTH, les endorphines, localisées dans les parties centrales et postérieures. - Les cellules gonadotropes sécrétant la LH et la FSH, localisées de façon diffuse. 1 - La prolactine =hPRL Cette hormone est fom1ée de 198 acides aminés ( 8, 12 ). Elle induit et maintient la lactation. Les taux plasmatiques de base sont de 10 μg/l chez la femme. La sécrétion suit un rythme nyctéméral avec un pic nocturne. 14 Durant la grossesse, les taux plasmatiques augmentent de façon régulière à partir du premier trimestre jusqu'à 200 μg/l à terme. Pendant la lactation, cette augmentation est maintenue par un réflexe neuroendocrinien initié par la stimulation des mamelons durant les tétées. 2 -
L'hormone de croissance
= hGH
Elle est constituée de 191 acides aminés dont 161 sont communs à elle et à la prolactine ( 8, 12 ). Elle entraîne la stimulation de la synthèse protéique et de la mobilisation adipeuse. De plus, elle possède un effet diabétogène. Son action s'exerce soit de façon directe au niveau des différents tissus, soit par l'intermédiaire de seconds messagers hormonaux apelés Somatomédines ou Insuline like Growth Factor ( IGF ). La hGH stimule leur synthèse. La hGH est sécértée de façon épisodique selon un rythme nyctéméral avec une augmentation des taux plasmatiques durant la première période de sommeil. Le taux plasmatique basal est compris entre 0,5 et 5 μg/l. II - LES TUMEURS HYPOPHYSAIRES : ( 8,12)
Elles représentent environ 10 % des tumeurs intracraniennes chez l'homme. Il s'agit d'adénomes développés à partir des différentes tumeurs antéhypophysaires. La transformation maligne est tout à fait exceptionnelle. On distingue 2 types selon le diamètre de la tumeur : - Les microadénomes dont le diamètre est inférieur à 10 mm, - Les macroadénomes de diamètre supérieur à 10 mm, caractérisé par le risque d'invasion des structures voisines. Les tumeurs particulièrement envahissantes peuvent gagner l'hypothalamus. 15 La symptomatologie de ces tumeurs associe, à des degrés divers, deux types d'éléments : - le syndrome tumoral avec céphalées et troubles visuels ; - le syndrome endocrinien, avec expression particulière selon le ou les types d'hormones hypersécrétées. 1- Les prolactinomes : Ils représentent 50 % des adénomes hypophysaires, atteignant le plus souvent des adultes de 20 à 40 ans. Ce sont les femmes les plus touchées (83 % des cas), en général sous forme de microadénomes. Chez l'homme il s'agit le plus souvent de formes envahissantes. Les troubles rencontrés chez la femme sont : l'aménorrhée, la galactorrhée, une baisse de la libido et un syndrome tumoral. Chez l'homme, le diagnostic est souvent tardif, occasionné par la survenue du syndrome tumoral. On remarque une baisse de la libido, des troubles de l'érection, une gynécomastie. Le taux basal de PRL est toujours supérieur à la normale (supérieur à 30 ng/ml), dû à l'hypersécrétion des cellules tumorales. Les valeurs plasmatiques sont corrélées à la masse tumorale. Il a perte du rythme nyctéméral traduisant la sécrétion autonome de l'adénome. 2 - Les adénomes somatropes : Ils représentent 25 % des adénomes hypophysaires, touchant également les deux sexes, le plus souvent entre 30 et 50 ans. On retrouve un tableau classique de dysmorphisme acromégalique lié à une hypersécrétion de hGH, permanente et non freinablc. L'action de la hGH se fait par l'intermédiaire de la Somatomédine C, entraînant une prolifération cartilagineuse et un épaississement des os courts. 16 A l'hypersécrétion de hGH peut s'ajouter celle d'autres hormones rendant le tableau plus complexe. Le cas le plus fréquent est l'hypersécrétion associée de prolactine, réalisant le tableau de l'adénome somato-mammotrope (20 % des cas d'acromégalie). 3 - La maladie de Cushing : Il s'agit d'un adénome hypophysaire corticotrope, microadénome dans 90 % des cas, 3 à 8 fois plus fréquent chez la femme, le plus souvent entre 30 et 50 ans. Il représente 5 % des cas d'adénomes hypophysaires. Il y a alors hyperstimulation surrénalienne d'où production excessive d'androgènes. Le syndrome tumoral est le plus souvent absent. 4 - Autres adénomes secrétants : Ils sont beaucoup plus rares. - Adénomes thyréotropes hypersécrétion de TSH et de sa sous-unité avec hyperthyroïdie. - Adénomes gonadotropes : hypersécrétion des gonadotrophines. 5 - Adénomes non sécrétants : adénomes chromophobes : Ils représentent 20 % des adénomes. En général le syndrome tumoral est très marqué car il s'agit de tumeurs volumineuses. Le plus souvent, ils se déclarent après 50 ans et se manifestent à un stade avancé de l'évolution. Dans 25 % des cas, les patients ne présentent aucun déficit endocrinien. Dans 75 % des cas, on retrouve une panhypopituitarisme avec déficit de la fonction gonadotrope en premier lieu.
17 METHODES DE BIOLOGIE MOLECULAIRE 1 - EXTRACTION DES
ARN TOTAUX:
1 - Intérêt: Etape préléminaire, indispensable à l'étude de l'expression génique par" NORTHERN- BLOT" et RT - PCR ",la méthode choisie doit permettre l'extraction des ARN totaux de qualité et pureté optimales à partir de quantités limitées de matériel biologique ( 2, 15, 24 ). 2 - Méthode ( d'après 3 ) : 2.1 Choix de la méthode : isolement des ARN totaux par extraction au Thiocyanate de Guanidine - Phénol - Chloroforme ( 3, 6, 15, 24 ). Le thiocyanate de guanidine, dénaturant protéique très efficace, est en même temps un puissant inhibiteur des ribonucléases ( RNases ) quand il est associé au bétamercaptoéthanol. Combinant extraction au thiocyanate de guanidine et extraction phénol - chloroforme, la méthode de CHOMCZYNSKI et SACCHI remplace vantageusement le protocole par ultracentrifugation au thiocyanate de guanidine en gradiant de chlorure de césium (méthode longue et lourde) ou l'extraction classique au phénol - chloroforme ( ARN souvent dégradé). Ce procédé rapide permet l'obtention d'ARN totaux non dégradés et de grande qualité à partir de très faibles quantités de tissus ou de cellules.
2.2Protocole :
2.2.1 Réactifs. Solution dénaturante= Solution D. 3 - Résultats : 3.1 Contrôle de qualité : électrophorèse en gel d'agarose coloré au bromure d'éthydium. L'ARN extrait doit satisfaire à deux critères de qualité ( 24) : * L'absence de dégradation par les ribonucléases : elle est déterminée par l'intégrité des bandes 28S et 18S des ARN ribosomiaux. Si l'ARN est intact, ces bandes sont nettement visibles, la bande 28S ( 4,7 kb ) étant deux fois plus intense que celle de 18S ( 1,9 kb ). * L'absence de contamination par de l'ADN génomique lors de l'extraction. L'électrophorèse étant réalisée en simple gel d'agarose à 1,2 %, une légère dégradation inhérente à cette méthode (gel non dénaturant) est visible au-delà du front de solvant. 20 Par commodité, les adénomes sont numérotés Al, A2, A6 Pui L'i 2 Dé ôt PMI 5 6 7 8 9 10 11 12 A2 A3 A3' A4 A4' AS A6 A6' 13 PMl : 2 μl PM 11 BOEHRINGER ( 500ng) = Phage À digéré par l'enzyme Hind III. PM2: 2 μl PM III BOEHRINGER ( 500 ng) =Phage À digéré par les enzymes Hind III et Eco Rl. Dépôts des adénomes : 1 μl Gel d'agarose à 1,2 % dans TBE x 1 ( Cf. figure 1 ). 21 A llindlll A Hindlll-EcoRI 23,130 9,416 6,557 4,361 2,322 2,027 21,226 125 1,584 1,375 947 831 564 125 564 5,148 4,973 4,268 3,530 2,027 1,904
FIGURE 1 : taille des fragments des poids moléculaires >.Hind III et >-Hind lil - EcoR 1 exprimée en paires de base. 22 Absence de traces d'ADN génomique - - - -1 Bande 28 S à 4,7 kb - - - Bande 18 S à 1,9 kb---Front de solvant à 0,125 kb - Photo du gel d'électrophorèse du contrôle d'extraction des ARN totaux. 23
3.2 Détem1ination spectrophotométrique du taux d'ARN
3.2.1 Principe : La quantification des ARN totaux extraits se fait par mesure spectrophotométrique de la quantité d'irradiation UV absorbée par les bases puriques et pyrimidiques ( 2, 5, 15, 17, 24 ). Les lectures de densité optique sont réalisées à 260 nm et 280 nm. - L'absorbance à 260 nm permet le calcul de la concentration d'ARN dans l'échantillon sachant qu'une unité de DO à 260 nm correspond à environ 40 μg/ml d'ARN. - Le rapport A 260nm / A 280 nm donne une estimation de la pureté des échantillons en ARN. Ce rapport doit être compris entre 1,8 et 2,0. S'il y a contamination ( protéines, phénol, autres acides nucléiques ), ce rapport est significativement abaissé et ne permet plus une estimation exacte des taux d'ARN. (limite de détection de la méthode= environ 0,25 μglml ). 24
3.2.2 Tableau des résultats : Volume
Dilution A 260 nm A 280 nm A 260 nm Concentration Quantités A 280 nm 'H20 TISSU d/lequel calculée en extrait•• μg/μl en μg eat repria le culot Al 20 1/100 0,424 0,217 l.954 l, 70- 34) Al' 20 1/100 0,133 0,065 2.046 0,53 10) A2 60 1/100 0,097 0,046 2~108 0,39 A3 60 1/100 0,167 0,081 2.062 0,67 A3' 40 1/100 0,377 o. 189 1.995 1.51 60) A4 40 1/100 0,304 0,150 2,027 1.22 48) ) 44 23 40) } 100 ) 112 A4' 40 1/100 0.400 0,199 2.010 1.60 A5 60 1/100 0,135 - 0,064 2.109 0.54 A6 20 1/100 0.310 O.H8 2,095 l,24 A6' 20 0,045 2.244 0,40 1/100 - - 0,101 6.fo) 31 24) ) 32
8) Les mesures d'absorbance sont réalisées sur le spectrophotomètre d'analyse UV / Visible, série ou®6o BECK.MAN. - Le calcul des absorbances à 260 nm et 280 nm nous conduit à des rapports A260 nm/A280 nm corrects, indiquant l'absence de contaminations protéïques, phénoliques ou d'autres acides nucléiques. La pureté et l'intégrité des ARN extraits permettent donc de poursuivre l'étude.
25 II - ANALYSE QUALITATIVE DES TRANSCRITS : le NORTHERN - BLOT
1 - Principe : Le NORTHERN - BLOT permet une analyse qualitative et semi-quantitative des ARN ( 2, 24 ). Cette technique permet de visualiser un ARN spécifique au sein d'une population hétérogène quand on possède une sonde reconnaissant au moins 20 bases de la partie codante du gène correspondant. Cette visualisation permet : - d'affirmer la présence ou l'absence d'un ARN dans la cellule qui a servi à sa préparation. - de déterminer la taille de cet ARN. - d'apprécier des variations quantitatives de cet ARN d'un type ou d'un état cellulaire à l'autre (semi-quantitatif). Les ARN étant des entités isolables, contrairement aux gènes, il n'est pas nécessaire de faire appel aux enzymes de restriction. Les ARN totaux extraits sont soumis à une électrophorèse en gel d'agarose afin d'obtenir une séparation en fonction de leur taille en référence avec un marqueur de poids moléculaire radioactif. Leur riche structure secondaire doit être détruite afin qu'elle n'intervienne pas dans leur mobilité. Pour celà l'électrophorèse est pratiquée en présence d'un agent dénaturant, ici le formaldéhyde. L'extrême sensibilité des ARN vis-à-vis des ribonucléases, enzymes très répandues et très stables, nécessite de travailler avec un très grand soin, et dans les conditions les plus stériles possibles ( port de gants indispensable, matériel et solution autoclavés ). Après électrophorèse et transfert sur membrane, l'hybridation par sonde oligortucléotidique marquée au phosphore 32 est révélée par 32P T4 PO ouoe 1!. se F IGURE2:M r q u a ' 5' T 4 . La période radioactive est de 14,28 jours. Son énergie est de 1,71 MeV. Mise en oeuvre de la protection : Pour arrêter totalement les 13 - de 1,7 MeV, il faut une épaisseur de 4 mm de verre ou de 8 mm de plexiglas. Les gants ordinaires constituent une barrière contre la contamination mais pas contre l'irradiation externe des mains. L'évacuation des déchets est contrôlée. L'activité initiale est réduite d'un facteur de 10 au bout de 48 jours, de 100 au bout de 96 jours, de 1000 au bout de 144 jours. Les déchets sont à conserver 4 mois dans une poubelle protectrice avant élimination avec les déchets conventionnels. Manipulation du Phosphore 32
:
Jusqu'à 0,16 mCi, travail en zone surveillée sur paillasse Jusqu'à 1,6 mCi, travail en zone contrôlée sur paillasse Jusqu'à 16 mCi, travail en zone contrôlée sous hotte aspirante. 28
2.1.2 Réactifs :.
tampon kinase x 10 { MgC120,l M {Tris HCl 0,5 M; pH= 7,6 { Dithiothréitol 50 mM { EDTA 1 mM; pH= 8,0 { Spermidine 10 mM. 0 ( 32 P ) ATP à 3000 Ci/mmol ; 10 μCi/μl ( AMERSHAM ). T4 Polynucléotide Kinase à 10 U/μl ( BIOLABS ). Poids moléculaire: phage Lambda digéré par l'enzyme EcoT14I en 11 fragments, dosé à 500 ng/μl: A! EcoT14I ( AMERSHAM). Trisacryl GF 05M, de limite d'exclusion 3000 daltons ( IBF)
2.1.
3
Protocole :
- 500 ng de Poids Moléculaire ( PM ) dilué dans 19 μl H20 - dénaturation 2 minutes à 95 •c et refroidissement immédiat dans la glace - addition de :. 4 μl de tampon kinase x 10. 2 μl de 0 ( 32p ) ATP. 1 μl de T4 polynucléotide kinase ( lOU). H20 qsp 40 μl - incubation 30 minutes à 3rc - purification immédiate par chromatographie de filtration sur colonne de Trisacryl GF 05 M®. 2.1.4 Résultats : Obtention d'un poids moléculaire marqué d'activité spécifique : AS= 5,9.106 dpm! μg,, soit 2,68 μCi/μg ( 1 μCi = 2,2.10 6 dpm ) 29
Calcul: Pour
500 ng
de PM marqué et purifié, le comptage d'une aliquote de 1 μl de PM pris sur un
volume de 40 μl donne un total de 31505 coups CERENKOV par minute, d1où une activité spécifique de 5,9.10 6 dpm/μg, sachant que l'efficacité de détection est de 43 % pour le Phosphore 32 ( 25 ). N.B : Le comptage est réalisé sur le compteur à scintillation liquide MINAXI TRICARB ( PACKARD), par effet CERENKOV (cf. Annexe n•1 ). 2.2 Electrophorèse en gel d'agarose dénaturant
Les acides nucléiques sont des macromolécules polyanioniques ( chargées négativement ) uniformément chargées. Leur migration est donc possible dans un champ électrique. La charge relative étant constante, le système de discrimination est füffet de filtration du gel. ( 2, 24 ) La vitesse de migration d1une molécule d1acide nucléique sera fonction de 2 paramètres: - sa masse moléculaire, donc le nombre de paires de bases. - la concentration en agarose du gel : dans la pratique, les concentrations en agarose sont comprises entre 0,6 et 1,5 % :
% Agarose Taille des fragments à séparer 0,9à1,2 0,2 à 7 kb 30 2.2.1 Réactifs { MOPS 0,2M.Tampon MOPS x 10 { Acétate de Sodium 50mM { EDTA lOmM {pH= 7,0.Formaldéhyde : solution à 37 % (PN).Formamide désionisé sur Résine AG 501 X 8 (BIORAD).Tampon de charge x6 { 0,05 % Bleu de Bromophénol (PN) { 60 % Glycérol (VN).Agarose SEAKEM HGT (FMC).NaOH lON 2.2.2
Protocole :
Tout le matériel d'électrophorèse (cuve et peigne) est traité préalablement à la soude 0,4N durant 30 minutes puis lavé plusieurs fois à l'eau ultrapure stérile.
-Réalisation d'un gel d
'
agarose : { 1 % Agarose (PN) { Tampon MOPS xl {Formaldéhyde 2,2M -Tampon de migration { Tampon MOPS x 1 { Formaldéhyde 2,2M - Les échantillons sont préparés comme suit :.8 μg d 1ARN totaux qsp 10 μl H20.10 μl de tampon dénaturant : { Formamide 50 % { Formaldéhyde 2,2M { Tampon MOPS x 1 { Tampon
de charge x 1 31 puis dénaturation 2 minutes à 95° C puis refroidissement dans la glace avant le dépôt. - L'électrophorèse est poursuivie jusqu'à une migration suffisante du colorant (bleu de bromophénol). 2.3 Transfert sur membrane:
L'hybridation au sein d'un gel d'agarose étant très difficile, les fragments d'acides nucléiques séparés par électrophorèse sont transférés sur un support solide. Ce transfert est assuré par un phénomène de capillarité, d'où le nom de "blotting" donné à cette étape. ( 2, 24, 26 ) Les membranes de Nylon activé ici utilisées sont des membranes de seconde génération, de très haute sensibilité. Ces nouvelles membranes sont chargées positivement sur un support de Nylon. Ces propriétés physicochimiques leur apportent robustesse et facilité d'utilisation (fixation par chauffage inutile). 2.3.1 Réactifs : - SSC X 20 { Citrate de Sodium 0,3M { NaCl 3M - Membrane de transfert par hybridation =Nylon chargé positivement (BOEHRINGER - MANNHEIM).
2.3.2 Protocole
: - Le transfert est réalisé en SSC x 20 par capillarité durant une quinzaine d'heures. La membrane découpée aux dimensions du gel est mouillée dans l'eau ultrapure puis saturée 10 minutes en SSC x 20. Le montage est réalisé selon le schéma suivant en évitant toute bulle d'air entre la membrane et le gel.
3 2 * -* * - P ap i e rWh a tm an 3M M emb r an ed e G e ld'ag a ro s e P l a q u ed e ~ =========:::==.: : := : : _ _____- ~ -------=::;.~111 1 1111111111111111111111111
;n ~ ~ ~~~~~~~~~~~~
F IGURE3 :S ch ém ad em o n t a g ed'u n et e c h n i q u ed eNORTHERN -BLOT. 33 - Fixation : après transfert, la membrane est traitée par NaOH 0,05 N, rincée en SSC x 2 puis séchée. Ceci entraîne la formation de liaisons covalentes entre l'acide nucléique et la membrane, afin de supporter les traitements nécessaires à l'hybridation, et autorise de nombreuses hybridations et déshybridations successives. 2.4 Hybridation : La règle d'appariement des bases ( A-T et G-C ) est la notion fondamentale sur laquelle repose la technique de l'hybridation moléculaire ( 2, 5, 17, 24 ). Deux acides nucléiques dénaturés d'origines différentes, mélangés dans des conditions appropnees, peuvent former des hybrides s'ils possèdent des séquences complémentaires. Ainsi, une sonde spécifique d'un acide nucléique donné peut s'associer de façon stable avec une séquence homologue et le marquage préalable de la sonde permet alors la détection du duplex.
2.4.1 Marquage radioactif des sondes
Le marquage de 3 sondes oligonucléotidiques a été nécessaire pour notre étude ( cf. Annexe 2): ( 2, 7, 18, 19, 20, 22, 27) - 1 sonde complémentaire de la région codante pour la séquence [ 66- 72 ] de hPRL. ( 18, 19 ). - 1 sonde complémentaire de la région codante pour la séquence [ 11-17 ] de hGH ( 18, 19) - 1 sonde " 28 S rRNA " pour valider les hybridations spécifiques ( référence CLONTECH). Produites sur un synthétiseur d'oligonucléotides ( GENSET pour hGH et hPRL, CLONTECH pour 28 S rRNA ), ces sondes sont obtenues sous forme d'ADN simple brin. Elles ne sont marquées qu'après leur synthèse. 34 Le marqu
age que nous avons réalisé sur l'extrémité 5' par la T4 polynucléotide kinase selon le protocole décrit pour le marquage du poids moléculaire (chapitre 11-2-1)
a donné
des
sondes
de
haute activité spéci
fique: ( 9, 11, 25)
GH
(21
mer
) PRL (21 mer) 28S rRNA (29 mer) Quantité de sonde 13pM = 90 ng lOpM = 70 ng lOpM = 100 ng cpm CERENKOV sur un aliquot de lμl 411828 391322 307782 sur 20 μl AS en dpm/μg 2.1.10 8 2.6.10 8 1. 4.10 g 2.4.2 Hybridation : Les paramètres affectant les taux d'hybridation et la stabilité des hybrides sont : ( 24 )
-
la
température de fusion des hybrides Tm qui est définie comme étant la température
à laquelle la moitié des hybrides est dissociée, dépendant de la composition en bases (% G+C), des microappariements isolés de bases. - la composition du milieu dans lequel la sonde est en solution ou stringence : force ionique, pH, température, viscosité. - la longueur de la sonde. En pratique, pour les oligonucléotides de 14 à 27 nucléotides de long, la température de dissociation Td est approximativement donnée par la formule: Td =4 (G+C) + 2 (A+T) en conditions standard de lM Na+. 35 Les hybridations et les lavages peuvent être réalisés à température plus basse en réduisant la concentration de Na+, ce qui est le cas dans Je tampon d'hybridation ici utilisé : ceci permet de diminuer Td de 10 à 15°C. REACTIFS:
-SSPE X 20 { NaCl 3M { NaH2P04 0,2M; 2H20 { EDTA 20mM, pH = 8,0 -DENHARDT X 50 { Ficoll type 400 1 % (PN) { Polyvinylpyrolidone 1 % (PN) { Sérumalbumine bovine 1 % (PN) -SOS 10 % pH= 7,2 (Sodium dodécylsulfate) -ADN de sperme de hareng à 4 mg/ml, soniqué et dénaturé (BOEHRINGER-MANNHEIM). PROTOCOLE: Une étape préalable de préhybridation par de l'ADN hétérologue (ici de!'ADN de sperme de hareng) est nécessaire afin de saturer les sites de fixation potentiels de la membrane. - la composition du tampon utilisé est la suivante : {SSPE X 5 {DENHARDT X 10 {SDS 1 % avec 100 μglml d'ADN hétérologue. - la préhybridation est réalisée en sac scellé mis au bain-marie agitant à 50° C pendant au moins 1 heure. 36 - L'hybridation est ensuite pratiquée en ajoutant la sonde marquée choisie (1 sonde par hybridation), à raison d'environ 5.106 cpm/ml de tampon, et ce pendant au moins 8 heures de bain-marie agitant. GH (21 mer) PRL (21 mer) 28 S rRNA (29 mer) Td estimé
70°
c 68° c 81° c
To hybridation choisie 58° c 56° c 60° c - Avant d'être mise en autoradiographie, la membrane doit être Javée. Cette étape particulièrement critique doit être conduite avec soin pour obtenir le meilleur rapport signal / bruit de fond possible. - Le tampon de lavage utilisé (SSPE x 2 et SOS 0,5 %) durant un temps court de 10 minutes est de stringence suffisante pour les sondes oligonucléotidiques. - Pour réhybrider avec une sonde différente, il est nécessaire de déshybrider la sonde précédente. Ceci est réalisé dans des conditions de stringence maximales : 2 minutes dans l'eau ultrapure à 100° C. 2.4.3 Autoradiographie : Les hybrides sont révélés par autoradiographie à l'aide de films photographiques " HYPERFILM MP AMERSHAM " qui sont mis en exposition à - 80° C dans une cassette avec écran intensificateur (Cf Annexe 3). Le temps d'exposition nécessaire est fonction de la quantité de cibles présentes. Hybridation Temps d'exposition hGh 13 jours hPRL 7 jours 288 rRNA 3 jours 37
REVELATION AUTORADIOGRAPHIQUE du NORTHERN-BLOT. 38
3
-
Ré
sultats
La même membrane du NORTHERN-BLOT a servi de support aux hybridations successives des 3 sondes oligonucléotidiques choisies. Les autoradiographies sont rassemblées pour comparaison sur la même reproduction du film. L'hybridation par la sonde "28S rRNA" réalisée en même milieu permet l'interprétation des deux autres : - les ARN totaux déposés (8 μg) sont révélés en quantité sensiblement équivalente, témoignant d'un dépôt électrophorétique et d'un transfert correct. le poids moléculaire bien visible permet le repérage des bandes recherchées.
Interprétation semi-quantitative: Expression du gène codant pour hPRL Adénome Al Adénome A2 Adénome A3 Adénome A4 Adénome A5 Adénome A6 Expression du gène codant pour hGH - - + - ++ ± ± ++ - - - +++ Cette méthode d'analyse par NORTHERN-BLOT va nous servir de référence pour la mise au point d'une méthode beaucoup
plus sensible
:
la RT-PCR
. 3 9 Po ids.,.. _ Go l la 'é le c t roonon1 se\?ao11><1 i11 reassu ran1. \ ~~......... ~:::::::::* < : : : : : : : : ; : lK leenex : \ ~ m., * •nc o n t i n ui 'hya ra iaoon \'\ Tamoon :20xs scou ~ sou a •a l luee _ _ / o">taou•c e"
e r r eo o v t " IOmOQ9n< l fse<~ como< t tS$10n ~ 1 1~~~, * *.*.*.*.*.. / ~ Suopo r t. 1 E taoedet ran
s fe
r
t D 3.
a
r< Joc o r r e s o o n a a n t~ unt r a q tT l&m nvonaa avec1a. SO<
°
'
O
t
P rehyonda
t
ion
1.
~ = -
;
,,.~
s
.
akb Hyonda
t
ion
n lavaç
ie
s Au
1
o rao
1
og ramme F IGURE
4
:
S c
h
ém
ar é c a p i t u l a t i fd el at e c h n i q u eduNORTHERN -BLOT.
III - LA REVERSE TRANSCRIPTION - POLYMERASE CHAIN REACTION : RT-PCR
Outre la méthode d1analyse des ARN messagers par NORTHERN-BLOT (précédemment développée), la technique de RT-PCR est une autre façon originale de les étudier. Elle devient de plus en plus utilisée pour l1analyse de la transcription des gènes car elle est rapide et hautement sensible. Après isolement des ARN totaux à partir de tissus ou de cellules, les ARN messagers sont soumis à l1action d1une enzyme Reverse Transcriptase qui permet la synthèse d1un ADN simple-brin complémentaire = cDNA. Une séquence déterminée de ce cDNA est ensuite amplifiée un grand nombre de fois par une réaction de PCR utilisant des amorces oligonucléotidiques spécifiques ou "Primers", nécessaires à l1action de l1enzyme ADN polymérase. Le produit d 1amplification est alors analysé par une électrophorèse en gel d1agarose puis validé selon une technique de SOUTHERN-BLOT, c 1est-à-dire hybridation de 11ADN obtenu avec des sondes oligonucléotidiques spécifiques marquées au phosphore 32. 41
cells
or tissue
RNA isolation t 1 RNA t1 cDNA nucleotide sequence l t1 primer design primers validation of PCR productl quantitation (optionol)
FIGURE 5: Diagramme schématique de la Méthode RT-PCR. 42
1 - La reverse transcription
:
1.1 Principe : Des sondes ADN simple brin complémentaires (cDNA) d'échantillons d'ARN messagers peuvent être synthétisées en utilisant des amorces oligo (dT) non spécifiques qui se lient aux séquences polyA trouvées à l'extrémité 3' de la majorité des ARN messagers. ( 1, 2, 13, 14, 23, 24) La synthèse du cDNA est catalysée par une enzyme ADN Polymérase ARN dépendante appelée "Reverse Transcriptase" (Cf. Figure 6). L'Avian Myoblastosis Virus Reverse-Transcriptase" (AMV-RTase) et l'oligo (dT) 12_ 18 ont été utilisés pour cette synthèse. L'AMV-RTase possède une activité RNase H qui se traduit par la destruction de l'ARN matrice après transcription en cDNA ; cependant cette enzyme peut entraîner la syntpèse d'un cDNA anticomplémentaire utilisant le cDNA produit comme matrice. L'introduction de la "RNase Bloc II Ribonucléase Inhibitor" au cours de la réaction permet de minimiser cet effet négatif des RNases se traduisant par une tion de rendement de la synthèse. ( 24) L'apport d'une quantité définie de [a Phosphore 32 dCfP] permet la quantification du cDNA synthétisé. 1.2
Protocole :
1.2.1 Réactifs:.Tampon x 10 RTase pour cDNA simple brin (ss cDNA). {Tris HCl 0,5M pH =8,3. {KCl 0,4M. {MgC12 80mM..Pyrophosphate de sodium 0,2M..Bétamercaptoéthanol 350mM..a (32P) dCTP 3000 Ci/mmol, 10 mCi/ml.
43.
RNase
Block II
Ribonu
cléase Inhibitor, 1000 U/ml STRATAGENE..Avian Myoblastosis Virus Reverse Transcriptase 21,6 U/μl GENOFIT..Phénol équilibré dans Tris HCl pH 7,5; O,lM..SEVAG.(Chloroforme: isoarnylalcool (24: 1)..dNTPmix: {dATP20mM {dTIP20mM {dGTP20mM {dCTP lOmM.Na0H4N..Primer oligo (dT) 15 à 1 mg/ml dans H20 BOEHRINGER..Sérumalbumine bovine à 5 mg/ml CLOI'"ITECH..EDTA0,5M..Colonne Trisacryl GF 05 M, de limite d'exclusion 3000 daltons (IBF).
1.2.2 Protocole : -Diluer 8 μg d'ARN totaux dans 20 μl H20. -Ajouter 2,5 μl oligo dT15 à 1 mg/ml. -Dénaturer 2 minutes à 95° C puis plonger dans la glace. -Ajouter dans chaque tube: { 1 μl sérumalbumine bovine à 5 mg/ml, {0,06 U RNase Block II, {2 μl Bétarnercaptoéthanol 350mM, {5 μl Tampon x 10 RTase, {2,5 μl dNTP, { 10 μl Pyrophosphate de sodium 20mM. -Incuber 15 minutes dans la glace. -Ajouter: {2μ1 dCTP*, {2,2 μl AMV-RTase 21,6 U/μl, {qsp 50 μl H20. 44 - Incuber 50 minutes à 40° C. - Stopper la réaction par addition de : {2 μ l EDTA 0,5M, {4μ1NaOH4N. afin d'hydrolyser l'ARN restant. - Incuber 30 minutes à 50° C. - Neutraliser sur colonne Trisacryl GF 05 M. - Purifier par addition de : {90 μl Phénol, Tris HCl, {90μ1 SEVAG. - Centrifuger 5 minutes à 3000 g. - Récupérer le surnageant et vérifier la neutralité du pH sur bandelette réactive. - Ajouter 180 μl SEVAG et centrifuger 5 minutes à 3000 g. - Récupérer le surnageant ( = 90 μl). - Prélever sur chaque échantillon 5 μI et compter les CERENKOV sur le compteur à scintillation liquide MINAXI TRI-CARB (PACKARD). - Conserver le reste de l'échantillon à - 20° C. 1.2.3 Quantification de la synthèse de
cDNA
(
Cf. Annexe
1)
: ( 25) - 8 μg ARN totaux qsp 20 μI H20. - Total des coups : 24,6 106 cpm CERENKOV (pour 2 μI a dCTP(3 2 P) apporté par tube). cpm 4 5
TABLEAUDESRESULTATSDELASYNTHESEDEcDNA
a
s s
ed
ecDNA Con c en t r a t ion 1=~ é lu a t M ( n g /μ l ) enμg cpmto t a l m a s s e cDNA Vo lum ed'é lu a t Ad énom e cpmd e sμ I d'é lu a t cpmd e l'é lu a tto t a l 1 9990 1,26.106 0, 0 5 1 1,69 1 9 2 89173 1,50.106 0, 0 6 1 2, 0 1 22 3 40045 0,72.106 0,029 0,97 11 4 49710 0,90.106 0,037 1, 2 1 1 3 5 61933 1,12.106 0,046 1,50 16 6 51399 6 1,93.10 0,038 1, 2 5 14 T auxd'in co rpo r a t ionM =Ix33μg 46 3' S'mRNA DNA AAAA 1 5' pnmer ~., TTTT J' prim
« FIGURE 6: Synthèse de cDNA par la Méthode oligo(dT). Des oligonucléotides oligo(dT) sont hybridés à la séquence terminale polyA des ARN messagers. Toute lé! population des ARN messagers sert de support à la synthèse de cDNA. 4 7 i '"'"'""'' i~ F '1 c : : : : : : p>2 0 • i. i " " "'' " "'° '.... F2 0 ~ ~ ~....... : : : : : : : : : : :=============== ~ i - AMHEAL IM 6! '>2 P 2 n i.'"'"'' °'0 -r:::--, • 0 • F IGURE7:L
e s
2
p r em i e r sc y c l e sd'am p l i f i c a t i o np a rP o l ym e r a s eC h a i nR e a c t i o n. 48 2 - La " Polymerase Chain Reaction "
2.1 Principe : (cf. Figure 7) ( 1, 2, 13, 14, 16, 23, 24) La Polymerase Chain Reaction ( = PCR ) est une technique de biologie moléculaire permettant d'amplifier spécifiquement et de manière exponentielle une séquence d'ADN donnée. Cette technique se prête bien à l'automatisation et des appareils effectuent désormais l'ensemble des opérations pour un grand nombre d'échantillons. Le principe de la PCR est simple. Il consiste à réaliser in vitro de nombreuses réplications successives de l'ADN en utilisant comme amorces deux oligonucléotides de synthèse Pl et P2 s'hybridant spécifiquement aux extrémités 3 1 de la portion de séquence à amplifier. Pl est complémentaire du brin EB ( ou brin codant ) de l1ADN et P2 du brin 8 ( ou brin non codant). Il s'agit d'une réaction cyclique et chaque cycle comprend : - dénaturation de l'ADN, - hybridation des amorces Pl et P2, - synthèse du brin complémentaire par l'enzyme ADN Polymérase. L'échantillon d'ADN est dans un premier temps dénaturé par la chaleur en présence d'un large excès de concentration des deux amorces et des quatre nucléotides ( dNTP ). Puis le mélange réactionnel est refroidi jusqu'à la température critique optimale permettant aux amorces de se lier à leur séquence complémentaire ou d'annealing 11 • 11 phase Les cinétiques d'hybridation des amorces sont très favorables par rapport aux cinétiques de renaturation de 11ADN du fait de la forte concentration et de la faible taille de Pl et P2. L'échantillon est ensuite amené à la température optimale de travail de l'ADN polymérase afin d'étendre les amorces ou 11 phase d'extension ". Dès lors, un nouveau cycle identique démarrer. Le produit obtenu majoritairement est un segment d'ADN double brin. Comme les produits synthétisés lors d'un cycle d'amplification servent de base pour le suivant, chaque cycle successif double le taux d'ADN produit : Rendement théorique =2 ( n + l ) après n cycles. 49 La taille de la séquence amplifiée peut être assez grande (plusieurs kilobases) mais le rendement diminue linéairement avec l'augmentation de la taille ; si bien que si une sensibilité optimale est recherchée, il est préférable de choisir des amorces correspondant à des séquences distantes de seulement cent à quelques centaines de bases. L'enzyme ADN Polymérase utilisée à l'origine était le fragment de KLENOW de E.coli ADN Polymérase 1 mais elle était inactivée aux températures requises pour dénaturer l'ADN, d'où la nécessité d'en rajouter à chaque cycle d'extension. Ce problème a été résolu. avec l'introduction d'ADN Polymérases thermostables, Taq Polymérase (extraite de Thermus aquaticus trouvé dans les sources chaudes du Yellowstone National Park), présentant une activité d'élongation optimale entre 75 et 80° C, puis d'autres plus résistantes encore aux hautes températures. Nous avons utilisé ici la VentTM DNA Polymérase (obtenu à partir de Thermococcus litoralis, une bactérie qui pousse dans les fosses sous-marines volcaniques). Cette enzyme possède une excellente fidélité et peut étendre un primer jusqu'à 10 - 13 Kbases. ( 10)
2.2 Choix et méthode d'extension des amorces :
Le choix de nos amorces Pl et P2 a été réalisé à partir de la publication de COOKE qui donne les séquences en bases et acides aminés correspondantes des ARN messagers de hPRL et hGH (Cf Annexe 2). ( 4 ) Des séquences riches en (G+C) et hétérologues par rapport au reste de l'ARN messager sont choisies de préférence. Leur taille doit être supérieure à 16 nucléotides, de préférence 20 à 24 (problème de spécificité). ( 21, 24) La synthèse a été réalisée par le laboratoire GENSET qui utilise des automates pilotés par microprocesseur. En pratique, il suffit de charger les réservoirs de l'appareil avec des réactifs appropriés, de rentrer la séquence désirée et de récupérer en sortie l'oligonucléotide synthétisé. La voie de synthése choisie pour ces appareils est celle des phosphoramidites. ( 21 ) (Cf Figure 8).
5 0 dmt0-?" Bp 1 TCA J " I. p ~ ~~ 0 ~ 1 ~ CNEO 9 CNEÔ aP ~1 O= r - f OCNE n -1 1 O==P CNEÔ C l3Cù iH ~ 9 o r OCNE
Bp 0 ELONGAT ION ---drn lûyn 0 o
=
r o
\
)'n -2 BP / -
CNE
ù= f-'-Ny 5P
OCHE ~ \ oy a '1 f -1 0 0 l.
| 53,814
|
8c999bc52d1a27fa8865ddf1198ae387_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 2,960
| 4,923
|
-disciplinary access and , hether . and institutions in France or abroad or s. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents ques de niveau ou non . DUNE-M : un estimateur local d’incertitude sur la position des points d’intérêt évolutif dans le temps
Katia Sousa Lillo1,3 1 2 Andrea De maio2 Simon Lacroix2 Amaury Negre1 GIPSA-Lab, Université Grenoble Alpes, CNRS, Grenoble INP, 38000 Grenoble, France LAAS-CNRS, Université de Toulouse, CNRS 7, Avenue du Colonel Roche, 31031 Toulouse, France 3 Thales Avionics, THALES group, 25 rue Jules Védrines, 26000 Valence, France
Résumé –
L’estimation de l’incertitude des points d’intérêt est essentielle pour les systèmes basés sur la vision, tels que la navigation visuelle. Nous montrons que les erreurs inhérentes au suivi visuel, en particulier en utilisant le tracker KLT, sont temporellement corrélées et peuvent être capturées par un réseau de neurones récurrent. Le système proposé intègre tout l’historique de suivi d’un point d’intérêt. DUNE-M est entraîné et évalué sur le jeu de données KITTI [4], mettant en évidence de bons résultats par rapport à l’état de l’art. Une application d’odométrie visuelle est présentée illustrant les bénéfices de l’utilisation d’une mémoire. Abstract – Uncertainty estimation of visual feature is essential for vision-based systems, such as visual navigation. We show that the errors inherent in visual tracking, especially using the KLT tracker, are temporally correlated and can be captured by a recurrent neural network. The proposed system integrates the entire tracking history of a feature position. DUNE-M is trained and evaluated on KITTI [4] datasets, showing good results compared to the state of the art. A visual odometry application is presented to illustrate the benefits of using a memory. 1 Introduction
système mobile [8]. Pose-LSTM [8] estime la pose d’un système mobile à partir des poses précédentes prises par le système mobile. En parallèle, des études sur la position des points étudient les LSTM, notamment SURFLSTM [2] qui propose un descripteur robuste SURF intégrant des cellules mémoires LSTM. Dans les solutions existantes, aucune ne s’intéresse au problème d’estimation de l’incertitude. La détection et le suivi de points dans une séquence d’images est un processus essentiel pour de nombreuses applications robotiques, en particulier, l’odométrie visuelle qui consiste en l’extraction de caractéristiques, le suivi de points d’intérêt et l’estimation du mouvement. La possibilité d’estimer précisément l’erreur issue du suivi des points d’intérêt est un avantage dans la sélection des meilleures points pour l’estimation du mouvement. De plus, dans un système intégrant des données inertielles et visuelles, tel que [6], l’utilisation d’un modèle d’erreur de suivi des points pourrait permettre de propager correctement les erreurs tout au long du processus de fusion. La plupart des approches d’estimation du mouvement issue de points d’intérêt supposent que l’incertitude sur la position de ces points est constante. L’estimateur d’incertitude [7] sur la position des points d’intérêt permet de qualifier la précision des observations entre deux instants k et k + 1. Toutefois, l’incertitude locale des points d’intérêt est estimée de façon indépendante de l’évolution de la position des points au cours du temps au delà de k + 1. [7] suppose donc que l’incertitude sur la position des points de k + 1 à k + 2 est indépendante et décorrélée de l’incertitude sur la position des points de k à k + 1. L’évolution de la position d’un point étant dépendante des positions précédentes du point, l’évolution de l’incertitude sur les positions d’un point dépend également de l’incertitude sur les positions précédentes du point. Quelques travaux ont été consacrés à l’intégration de la mémoire, en particulier des couches LSTM (Long-Short Term Memory), dans l’estimation de la position d’un
Figure 1 : Deep UNcertainty Estimation
avec
Mémoire (DUNE-M
).
Le système prend en entrée une séquence temporelle d’imagettes envoyées itérativement à DUNEM pour prédire la covariance sur la position des points d’intérêt relative à l’image finale de la séquence temporelle T. Nous introduisons DUNE-M (Deep UNcertainty Estimation-Memory) un estimateur d’incertitude local basé sur un modèle de réseau de neurones (RdN) évolutif dans le temps intégrant une mémoire comme illustré figure 1. Ainsi, l’ensemble de l’historique de suivi de la position d’un point est exploité pour fournir des incertitudes plus précises. Nous montrons que l’intégration d’une mémoire dans notre estimateur permet d’affiner la précision sur l’estimation de l’incertitude de la position des points de suivi au cours du temps. DUNE-
M
2.2 Par choix, DUNE-M utilise des paires d’images successives. La structure est inspirée de [7] et permet d’évaluer directement l’impact de l’utilisation d’une mémoire LSTM. Les paires d’imagettes sont itérées dans le réseau de neurones récurrent DUNE-M. La section suivante est consacrée à définir le fonctionnement de DUNE-M, en particulier définir le format des entrées et des sorties ainsi que l’architecture du RdN. 2.1 Structure du réseau de neurones Format des données
L’estimateur de covariance proposé est un modèle basé sur un RdN qui estime les incertitudes locales sur la position des points d’intérêt en apprenant l’erreur entre la position des points observés et leurs positions réelles. L’erreur uv ek est définie par la distance euclidienne entre la position réelle du point uv mk ∈ R2 avec des coordonnées de pixels (u, v) à l’instant k et le point mesuré uv m̃k ∈ R2 : uv ek =uv m̃k −uv mk (1) Un point d’intérêt peut être observé à plusieurs intants. Dans [7], les données d’entrée sont des stacks de deux imagettes W k et W k+1, c’est-à-dire une portion de l’image de dimension (21 × 21), centrées en uv m̃ le point tracké entre deux instants k et k + 1. Considérons une séquence d’imagettes successives, les données d’entrées de DUNE-M sont représentées par la concaténation de l’ensemble des stacks de deux imagettes entre deux instants ∀k ∈ |[0; T ]| de la séquence temporelle T, tel que décrit Fig. 2.
Figure 3 : Structure de l’estimateur DUNE-M d’incertitude de la position du suivi des points d’intérêt d’une séquence temporelle intégrant les paramètres de Harris (λ1, λ2 )i - T est la taille de la séquence temporelle, i un échantillon, k indique la dimension des Kernels ; s la dimension des strides ; et f le nombre de filtres. Les couches vertes représentent les convolutions, les bleues les couches de normalisation et les jaunes les dropouts. Chaque couche du RdN, à l’exception de la dernière, est suivie d’une fonction d’activation leakyrelu La construction de DUNE-M a été réalisée en intégrant une couche LSTM à la sortie du bloc convolutif et en entrée des couches denses (Fig. 3). L’objectif est de capturer les caractéristiques sortantes des couches convolutionnelles et de corréler ces caractéristiques temporellement. Intuitivement, nous faisons l’hypothèse que l’évolution de l’incertitude sur la position d’un point de suivi dépend de ses positions antérieures. L’utilisation d’une mémoire LSTM est donc le moyen d’observer l’évolution des caractéristiques relatives à un point suivi le long d’une séquence temporelle et, en particulier, de pouvoir apprendre l’incertitude sur la position d’un point suivi à partir de l’historique complet de l’évolution du point depuis sa détection. La prise en compte de l’historique du suivi de chaque point est un levier d’amélioration à l’estimation de la précision d’un point où l’incertitude n’est plus cumulée au cours du temps mais adaptée à la situation ( i.e., dégradation ou amélioration du champ de vue).
Figure 2 : DUNE-M prend en entrée un échantillon i décrit par une séquence imagettes concaténées [uv W i,k ; uv W i,k+1 ] centrées en uv m̃i,k et uv m̃i,k+1 ∀k ∈ |[0; T ]|, et prédit la matrice de covariance Σ̃i associée à uv W i,T. La fonction de coût appliquée L compare l’erreur mesurée à T uv ei,T avec la matrice de covariance prédite Σ̃i DUNE-M fournit alors une covariance locale Σ̃i ∈ R2×2 dans le repère image F pix [7] sur
la position de la dernière observation d’un point d’intérêt suivi uv m̃i,k=T d’un échantillon i évaluée à partir de tout l’historique de suivi du point d’intérêt le long de cette séquence. La fonction de coût L appliquée, issue de [7], maximise la vraisemblance de l’erreur uv e suivant une distribution gaussienne. Avec cette approche, la matrice de covariance est apprise par rapport à l’entrée, ce qui permet de capturer l’incertitude hétéroscédastique de chaque échantillon.
3 Résultats
Tous nos résultats ont été réalisé sur le jeu de données KITTI [3]. Le modèle a été appris à partir du scénario 2011_09_26_0002. 2011_09_26_0005 a été utilisé pour tester le modèle au cours de l’apprentissage. Enfin, le scénario 2011_09_26_0113 est adopté pour la phase d’évaluation de DUNE-M. 2 Métriques 3σu 3σv 2σu 2σv 1σu 1σv MD NNE Au cours de chaque scénario, les points sont détectés et trackés. Par choix [7], notre étude est réalisée à partir du tracker Kanade Lucas Tomatsi (KLT) [1] après une initialisation avec le détecteur de Harris [5]. La structure 3D exacte du monde (i.e., carte de profondeur, points géolocalisés, etc..) n’est pas disponible directement. Aussi, l’application du tracker en rétropropagation (i.e., sur un aller-retour) permet de mesurer le biais induit par la méthode de tracking et en particulier, d’évaluer l’incertitude de position sur ce point. En particulier, on se place à T = 5, ainsi on opère un aller retour sur un total de 10 images (5 allers et 5 retours). L’erreur sur la séquence est définie par la distance entre la position du point initialement détecté et la position du point à l’issue du suivi sur l’aller-retour, idéalement identique à celle de la première détection. Dès lors, on suppose une répartition de l’évolution uniforme.
3.1 3.4 Métriques Évaluation des prédictions de DUNE sur l’estimation du mouvement
Nous appliquons une validation géométrique dont la vocation est d’évaluer l’impact des variances sur la reconstruction du mouvement. La pose de la caméra n’est pas connue. Toutefois, l’approche de la rétropropagation permet de revenir à l’état initial permettant de caractériser la vérité terrain du mouvement de la caméra par la transformation I T = 3×3 3×1. k+1 ground truth Par ailleurs, le mouvement de la caméra peut également être estimé sur l’aller retour par stéréovision. La transformation prédite k Testimated est évaluée. L’erreur sur la transformation rigide peut ainsi être calculée avec : Préparation des données k+1 Terr −1 = k+1 Tground truth · k+1 Testimated (2) où k+1 Terr définit l’erreur de transformation rigide à l’instant k + 1. Les meilleurs points p (i.e., best points) sont sélectionnés à partir du critère tr(Σi ) ≤ 0.5 ∗ Tp, i ∈ |[0; s]| et les pires points (i.e., worst points) vérifient tr(Σi ) > 0.5∗T. Les résultats sont présentés
Fig. 4. Analyse des résultats DUNE-M est évalué à partir des données d’évaluations issues du scénario 2011_09_26_0113. Les incertitudes prédites sont analysées à 1σ, 2σ et 3σ et référencées dans le tableau Tab. 1.
Pour une distribution normale, les quantiles devraient inclure respectivement 68%, 95% et 99, 7% des erreurs observées uv e. Nous comparons nos résultats (Tab. 1) à la méthode [9] et à un modèle de covariance fixe (Fix-C) égale à 0.5 · 5 · 2 pixel. La méthode [9] donne des résultats trop optimistes avec une distance de mahalanobis M D ∼ 1.5, validée également par N N E ∼ 1.4. Ce résultat est visible dans la répartition des quantiles entre 84% et 90% des erreurs observées à 1σ. À l’inverse, la méthode Fix-C est pessmiste comme précédemment avec une distance de mahalanobis M D ∼ 0.3 et N N E ∼ 0.3. DUNE-M montre les meilleurs résultats notamment avec M D ∼ 1.2 et N N E ∼ 1. De plus, 90% des erreurs observées sont comprises dans 3σ. Ces résultats sont très satisfaisants et constituent les Fix-C 98.3 99.9 96.46 99.5 94.43 98.5 0.26 0.26 meilleurs résultats disponibles dans la littérature sur l’estimation d’incertitude de la position des points d’intérêt. 70% des données sont utilisées pour entraîner le réseau neuronal, 15% sont conservées pour la phase de test et 15% pour l’évaluation. Nous effectuons un apprentissage sur 150 epochs avec une taille de bacth de 64. Le pas d’apprentissage initial est identique ainsi que la méthode d’optimisation Nadam. Le modèle final est sélectionné comme étant celui qui donne les meilleurs résultats M D et N N E sur les données de test.
3.3 [9] 90.63 96.0 95.21 88.7 84.56 91.23 1.46 1.37
Table 1 : Comparaison des résultats de DUNE-M par rapport à l’état de l’art
La performance du modèle est évaluée en comparant l’erreur réelle uv ek et l’incertitude prédite Σk sur la base de deux métriques : l’erreur normalisée (NNE) et la distance de Mahalanobis (MD), telles que définies dans [7]. Le modèle d’incertitude optimal est obtenu pour des valeurs égales à 1. Les valeurs inférieures correspondent à une estimation pessimiste de l’ itude, et les valeurs supérieures à un modèle d’estimation optimiste. 3.2 DUNE-M 90.03 90.76 88.33 88.26 83.56 82.80 1.17 1.07 0.7 0.8 0.6 0.7 0.6 0.5 0.5 0.4 0.4 0.3 0.3 0.2 0.2 0.1 0.1 0 0 0 0.5 1 (a) 1.5 0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4
(b) Figure 4 : Impact sur l’estimation du mouvement - (a) Erreur sur la translation (en m) ; (b) Erreur sur la rotation (en deg). Les résultats (Fig. 4) montrent une erreur moyenne de 0.3017 m en translation pour les meilleurs points et 0.7604 pour les pires points. Ces métriques sont comparables à celles issues de RANSAC avec une erreur moyenne 3 en translation de 0.3017 m pour les meilleurs points et 0.8521 pour les pires (Fig. 4a). La sélection des meilleurs ayant une meilleure incertitude sur sa position met en
évidence une erreur moindre lors de l’estimation de la pose d’un système mobile et montre de meilleurs résultats. Ces résultats sont également visibles sur les erreurs de rotation (Fig. 4b) avec une erreur moyenne de 0.0298 deg pour les meilleurs points et 0.1627 deg pour les pires ; avec RANSAC on estime une erreur moyenne de 0.0272 deg pour les meilleurs points et 0.2321 deg pour les pires.
qu’il est possible de capturer l’évolution temporelle dynamique d’un point suivi. Le modèle prédictif DUNE-M a été comparé et validé par deux métriques dédiées. Par la suite, DUNE-M peut être intégré à diverses applications robotiques. En particulier, le format de données avec des séquences à taille variable offre plus de souplesse dans le choix de la sélection de points d’intérêt, ce qui constitue la plus grande force de l’architecture mise en place avec DUNE-M.
R
éférence
s Discussion [1] D. Lucas Bruce et Takeo Kanade : An iterative image registration technique with an application to stereo VIsion. 1981. Influence de la mémoire
Nous comparons notre méthode DUNE-M à [7]. Pour chaque séquence temporelle, [7] retourne T prédictions d’incertitude. La prédiction finale de la séquence est la somme des T prédictions d’incertitude fournies par [7]. Les résultats sont mis en relation Tab. 2 avec les prédictions issues de DUNE-M, estimant directement la prédiction issue de la séquence.
Métriques 3σu 3σv 2σu 2σv 1σu 1σv MD NNE [7] 93.46 96.16 91.63 94.73 88.4 90.93 0.70
0.68 [2] Ahmed Elmoogy, Xiaodai Dong, Tao Lu, Robert Westendorp et Kishore Reddy : Surf-lstm : A descriptor enhanced recurrent neural network for indoor localization. In 2020 IEEE 92nd Vehicular Technology Conference (VTC2020-Fall), pages 1–5. IEEE, 2020. [3] Andreas Geiger, Philip Lenz, Christoph Stiller et Raquel Urtasun : Vision meets robotics : The kitti dataset. International Journal of Robotics Research (IJRR), 2013. DUNE-M 90.03 90.76 88.33 88.26 73.56 72.80 1.17 1.07 [4] Andreas Geiger, Philip Lenz et Raquel Urtasun : Are we ready for autonomous driving? the kitti vision benchmark suite. In Conference on Computer Vision and Pattern Recognition (CVPR), 2012. [5] C. Harris et M. Stephens : A combined corner and edge detector. In Procedings of the Alvey Vision Conference 1988, 1988. Table 2 : Comparaison des résultats DUNE-M et [7] [6] Anastasios I. Mourikis et Stergios I. Roumeliotis : A multi-state constraint kalman filter for vision-aided inertial navigation. In Proceedings 2007 IEEE International Conference on Robotics and Automation, pages 3565–3572, 2007. Le modèle d’estimation issu de [7], comme étant la somme des incertitudes des entrées de la séquence temporelle est pessimiste. En effet, N N E ∼ 0.7, de même que la distance de mahalanobis M D = 0.7. DU N E − M montre de meilleurs résultats, notamment avec N N E ∼ 1 et M D = 1.17. Ainsi, l’influence et l’impact de l’ajout d’une couche LSTM permet d’affiner l’estimation des covariances à partir de l’historique d’observation des points d’intérêt. Par ailleurs, la mise en place d’un réseau récurrent offre une certaine flexibilité du format des données d’entrée. En effet, elle rend possible l’utilisation de séquence à taille variable en entrée comme en sortie du réseau. Dans notre cas, DUNE-M permet d’accueillir des jeux de données à partir de points observés ayant un nombre d’observation variable.
5 [7] Katia Sousa Lillo, Andrea de Maio, Simon Lacroix, Amaury Nègre, Michèle Rombaut, Nicolas Marchand et Vercier Nicolas Vercier : Dune : Deep uncertainty estimation for tracked visual features. In IPAS 2022-5th IEEE International Conference on Image Processing, Applications and Systems (IPAS 2022). IEEE, 2022. [8] Florian Walch, Caner Hazirbas, Laura LealTaixe, Torsten Sattler, Sebastian Hilsenbeck et Daniel Cremers : Image-based localization using lstms for structured feature correlation. In Proceedings of the IEEE International Conference on Computer Vision, pages 627–637, 2017.
Conclusion
Nous avons présenté une nouvelle architecture de réseau de neurones récurrent qui produit des estimations de l’incertitude sur la position des points d’intérêt suivis par le tracker KLT intégrant des corrélations temporelles avec les positions antérieures des points. Nous avons montré [9]
Xue Iuan Wong et Manoranjan Majji : Uncertainty quantification of lucas ade feature track and application to visual odometry. In 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pages 950–958, 2017. 4.
| 6,799
|
36/hal-inalco.archives-ouvertes.fr-hal-01330114-document.txt_1
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,039
| 12,220
|
Sommaire
1. LE PROGRAMME ESCOM-AAR 2 1.1. Présentation synthétique 2 1.2. Composition de l'équipe et conseil scientifique 2
2. ACTIVITÉS DE R
&
D 3
2.1. Axe 1 : AAR – Archives Audiovisuelles de la Recherche : Archivage numérique et diffusion de patrimoines scientifiques et culturels 3 2.1.1. Le fonds AAR 4 2.1.2. Les publications de la banque des données audiovisuelles des AAR 4 2.1.3. Depuis mai 2013 – une « nouvelle génération » de portails AAR 7 2.1.4. Réappropriation de corpus audiovisuels et republications – l'ingénierie du « repurposing » 9 2.2. Axe 2 : Studio ASA (Atelier Sémiotique Audiovisuel) : Plateforme de travail scientifique et éditorial des AAR 10 2.2.1. L'environnement AAR 11 2.2.2. L'environnement ASA 12 2.2.3. Le Studio ASA (Atelier Sémiotique Audiovisuel) 13 2.3. Axe 3 : Campus AAR : Transfert et partage des connaissances et technologies pour l'archivage et la diffusion de patrimoines scientifiques et culturel 14 2.3.1. Les objectifs du projet Campus AAR 15 2.3.2. Partenariats consacrés à la mise en place d'archives audiovisuelles 16 2.4. Axe 4 : e-Sémiotique : Recherche et développement sur les
nouveau
x
écosystèmes de l'information et de la connaissance
16 2.4.1. Le « semiotic turn » dans les archives numériques 17 2.4.2. Méthodologie Projet Archives numériques et remédiation : Procédures, documentation et outils 20 2.4.3. Eco-systèmes d'information, acteurs sociaux et patrimoines de connaissance 22
3. RÉFÉRENCES BIBLIOGRAPHIQUES ESCoM-AAR 2014 1. LE PROGRAMME ESCOM-AAR 1.1. Présentation synthétique
L'ESCoM-AAR est un programme de recherche, hébergé à la Fondation Maison des Sciences de l'Homme (FMSH) à Paris et créé en 1990 par Peter Stockinger, professeur à l'Institut National des Langues et Civilisations Orientales (INALCO) avec l'aide de Charles Morazé, co-fondateur de la FMSH, Clemens Heller (alors administrateur de la FMSH) et François de Labriolle (alors président de l'INALCO). 1.2. Composition de l'équipe et conseil scientifique
1) Directeur: Peter Stockinger - P.U. INaLCO. 2) Programme AAR (Archives Audiovisuelles de la Recherche): 1. 2. 3. 4. Elisabeth de Pablo (FMSH): responsable éditorial du Programme AAR. Francis Lemaitre (FMSH): responsable informatique du programme AAR. Neli Dobreva (FMSH): communication, valorisation et production de contenus. Gaël Vilpoix (FMSH): administration de l'infrastructure informatique. 3) Projet ANR Campus AAR : 1. Valérie Legrand (FMSH - INALCO): Recherche et développement. ESCoM-AAR 2014 2. Dominique Flament (CNRS): Archives Histoire des Mathématiques (AHM). 3. Gabrielle Laumonier (FMSH - INALCO): suivi administratif du projet Campus AAR. 4) Chercheurs associés : 1. Véronique Alexandre Journeau (AIDIAA-Association internationale de dialogues artistiques, ParisSorbonne, OMF et Creops): Archives Langarts - audiovisuelles, arts et esthétique. 2. Tarek Ouerfelli (Université de la Manouba à Tunis, Institut Supérieur de Documentation): Archives audiovisuelles numériques. 5) Comité Scientifique: 1. 2. 3. 4. 5. 6. 7. 8. Barbara Glowczewski (directeur de recherche; Collège de France-LAS/CNRS). Florence Descamps (EPHE). Monica Schpun (CRBC - EHESS). Richard Pottier (Université de Paris V). Steffen Lalande (INA). Patrick Courounet (INA). Laurence Favier (professeur des universités ; GERIICO - Université de Lille 3). Widad Mustafa (professeur des universités ; GERIICO – Université de Lille 3). 2. ACTIVITÉS DE R&D
Les activités de l'ESCoM-AAR s'organisent autour de quatre axes complémentaires : 1) Axe 1 : AAR – Archives Audiovisuelles de la Recherche : Archivage numérique et diffusion de patrimoines scientifiques et culturels ; 2) Axe 2 : Studio ASA (Atelier de Sémiotique Audiovisuelle) : Plateforme de travail scientifique et éditorial des Archives Audiovisuelles de la Recherche ; 3) Axe 3 : Campus AAR : Transfert et partage des connaissances et technologies pour l'archivage et la diffusion de patrimoines scientifiques et culturels ; 4) Axe 4 : e-Sémiotique : Activités de R&D consacrées aux nouveaux écosystèmes de l'information et des connaissances.
2.1. Axe 1 : AAR – Archives Audiovisuelles de la Recherche : Archivage numérique et diffusion de patrimoines scientifiques et culturels
Les Archives Audiovisuelles de la Recherche (AAR) forment un programme de recherche appliquée de l'ESCoM dans le domaine des archives/bibliothèques numériques pour la recherche scientifique, l'enseignement et la valorisation de patrimoines scientifiques et culturels. Il a été élaboré en 2000, dans le cadre d'un projet de R&D français s'intitulant OPALES (coordinateur : INA) et mis en place concrètement à partir du mois d'avril 2002. Deux objectifs sous-tendent les AAR : a) Constituer et préserver des corpus audiovisuels numériques qui documentent le patrimoine scientifique dans les différentes « disciplines » en SHS. ESCoM-AAR 2014
b) Publier et diffuser en ligne une partie des corpus archivés sous forme d'événements (conférences, séminaires, entretiens, recherches de terrain, ) et de collections (« dossiers ») d'événements scientifiques en français et dans d'autres langues. 2.1.1. Le fonds AAR Entre 2002 et 2009, l'ESCoM-AAR a déployé une intense activité de production de données audiovisuelles documentant la très grande richesse du patrimoine scientifique et culturel des SHS. Depuis 2009 les activités de production ont été complètement externalisées pour des raisons budgétaires internes à la FMSH. Voici quelques caractéristiques du fonds des AAR tel qu'il se présente aujourd'hui, en 2014 : 1) Types de données : a) Données vidéos : enregistrements bruts, enregistrements traités a posteriori et montés par l'ESCoMAAR, documents filmiques édités (reportages, documentaires, ). b) Données visuelles statiques : photographies brutes, photographies traitées à posteriori ; photographies d'archives de chercheurs. c) Données textuelles : (pré-)publications des contributeurs, CV, bibliographies, prépublications, « working papers ». d) Données structurées : une base de données contenant des informations sur les auteurs du fonds AAR (environ 3100 personnes), sur les abonnés à la newsletter AAR (plus que 10.000 abonnés) et sur quelques 500 visiteurs/utilisateurs des AAR (questionnaires en ligne réalisé entre 2008 et 2010). e) Données à caractère juridique : contrats de mise en ligne (environ 3200 contrats signés et classés). 2) Volume du fonds (vidéos seulement) : environ 7000 heures de vidéos produites et/ou coproduites par l'ESCoM et un réseau national et international de partenaires; quelques 5800 heures de ressources AV en accès libre (« open access ») sur le portail du programme AAR; des milliers d'heures de ressources AV également librement accessibles sur une série de portails plus spécialisés (cf. ci-après). 3) Formats des fichiers vidéo : Les formats de stream utilisés actuellement sont mpeg4, et – sporadiquement - wmv (Microsoft) et flash (Adobe). 4) Auteurs: communauté internationale d'environ 3100 chercheurs-enseignants, artistes, journalistes, hommes/femmes politiques, mais aussi témoins (victimes politiques, refugiés, descendants de colons européens, représentants d'anciens métiers, ) – communauté originaire de quelques 75 pays du monde. 2.1.2. Les publications de la banque des données audiovisuelles des AAR
Le fonds des AAR est publié et diffusé en ligne sous forme de 3 genres de base différents : 1. Le genre principal est l'événement AAR (« événement scientifique », « événement culturel », ) : chaque événement filmé est publié sous forme d'un site d'événement ou encore d'un site événementiel. Sur le portail central du programme AAR, on peut accéder, aujourd'hui, à environ 670 sites d'événements ; l'ensemble des portails du programme AAR compte environ 1030 sites événementiels. 2. Les collections des AAR : « Collection » veut dire ici ensemble cohérent de sites d'événements. Un ensemble de sites d'événements constitue un corpus publié (enligne) d'événements. Les AAR comportent, aujourd'hui, 40 grands corpus d'événements audiovisuels et quelques 180 corpus plus circonscrits. Exemple : Le corpus Sociologie comporte, aujourd'hui, 160 sites d'événements (représentant quelques 960 heures de vidéo en ligne). Ce corpus comprend, à son tour, 46 corpus spécialisés comme, par exemple, le corpus spécialisé Sociologie urbaine (composé de 8 sites événementiels), le corpus spécialisé Sociologie de la culture (composé de 27 sites événementiels) ou encore le corpus spécialisé Sociologie des migrations (composé de 11 sites événementiels), Un corpus AAR est composé d'enregistrements d'entretiens (avec chercheurs, experts, journalistes, témoins, ), de séminaires et/ou de colloques (tables rondes, journées d'étude, ) mais aussi de documentaires AV, d'enregistrements de terrain documentant le thème/le sujet, d'enregistrements d'événements culturels (expositions, concerts, ), de prises de vue de « scène de vie (figure 1 : le portail central des AAR) 3. Les portails des AAR (portail général du programme AAR; portails à thème). Un portail est un point d'accès central aux événements et/ou collections d'événements. Les AAR sont composé : d'un portail central1 (cf. figure 1) en huit langues et d'une série de portails spécialisés (i.e. de portails 1 http://www.archivesaudiovisuelles.fr/FR/ Page 5 ESCoM-AAR 2014 proposant à leur tour des accès communs et/ou spécifiques à une sélection du fonds audiovisuel de la banque des données ouvertes AAR): Portail AVERROES – La médiathèque France-Maghreb2 (cf. figure 2) ; Portail PCM – Peuples et Cultures du Monde3, Portail MDD – Mondialisation et Développement Durable4, Portail DLC – Diversité Culturelle et Linguistique5, Portail SCC – Semiotica, Cultura e Comunicazione6 (coopération avec l'Università di Roma – Sapienza), (figure 2 : le portail spécialisé Averroès – la médiathèque France-Maghreb) Le portail général AAR ainsi que les portails spécialisés proposent un ensemble d'accès standards qui permettent d'explorer la richesse du patrimoine audiovisuel diffusé gratuitement : accès par « nouveautés » : publications les plus récentes; les « grands titres », ; accès par domaines et disciplines ; accès par types d'événements ; accès par langue (version originale des vidéos) ; accès par auteurs ; accès à des dossiers hypermédias spécialisés issus d'un processus de republication de corpus audiovisuels ; 2 http://www.france-maghreb.fr/FR/ 3 http://www.culturalheritage.fr/FR/ 4 http://www.evolutiondurable.fr/FR/ 5 http://www.languescultures
ESCoM-AAR 2014
2.1.3. Depuis mai 2013 – une « nouvelle génération » de portails AAR Grace à une série de projets de R&D européens (6ème et 7ème PCRD) et français (ANR) dans lequel le programme ESCoM-AAR a été impliqué en tant que partenaire ou coordinateur, une nouvelle génération de portails audiovisuels a pu voir le jour depuis mai 2013. Les principales caractéristiques de cette nouvelle génération de portails sont les suivantes : Accès sémantique à des corpora audiovisuels choisis (accès par thesaurus, accès par thèmes ou sujets de discours, accès par localisations géographiques et temporelles, accès aux références culturelles, accès aux corpus par genre de discours ; accès aux corpus par profil d'usage ; etc.). Descriptions et indexations riches et détaillées des vidéos pour des usages dans l'enseignement et la recherche. (figure 3 : le portail spécialisé AMSUR – Les mondes de l'Amérique Latine)
Ces
améli
orations significatives
ont
été rendues possibles grâce à l'environnement de travail « unifié » Studio ASA de l'ESCoM (cf., ci-après, l'Axe 2). La figure 3 montre l'exemple de la page d'accueil du portail AMSUR7 donnant accès à quelques 380 heures de vidéos finement analysées et indexées. On peut y identifier trois barres de menu supérieures : 1. La barre supérieure proposant l'accès à des rubriques habituelles d'un site/portail ; 2. la barre du milieu « Publications » donne accès aux publications/republications spécialisées (dossiers thématiques, dossiers pédagogiques, etc.) ; 3. la barre inférieure propose des accès par sujets, thesaurus, localisation géographique, contributeurs, collections filmiques, genres de discours, etc. (figure 4 : La « page vidéo » sur le portail AMSUR permet l'exploration systématique d'une ressource vidéo) Enfin, la figure 4 montre encore l'exemple de l'interface (adaptable aux métadonnées descriptives) de l'exploration d'une ressource audiovisuelle (d'une vidéo en entière, d'un segment, de vidéos similaires à une vidéo donnée, ) : exploration d'une ressource audiovisuelle séquence par séquence ; présentation de l'ensemble de la ressource audiovisuelle ; présentation d'une séquence sélectionnée par le lecteur/visiteur du portail ; propositions de ressources documentaires (filmiques, photographiques, supplémentaires pour mieux comprendre un sujet, une séquence ; traductions (synthétiques, libres, adaptées au public, ) d'une séquence ; propositions dans quel cadre et comment utiliser une séquence ; 7 http://www.amsur.m textuelles, ) ESCoM-AAR propositions d'explorer des ressources audiovisuelles similaires (par genre, par thème, par mot-clé, par auteur, ) ; mentions légales (relatives à la ressource vidéo, à l'analyse produite, ). 2.1.4. Réappropriation de corpus audiovisuels et republications –
l'ingéni
erie
du « repurposing » Le portail AMSUR donne accès à un corpus audiovisuel qui provient de la banque de données ouvertes AAR et est consacré à l'histoire et aux cultures de l'Amérique Latine. Ce corpus constitue donc une partie du fonds commun de la banque des données des AAR (environ 380 heures sur une totalité de 7000 heures). Il est également accessible via le portail général des AAR mais uniquement par le biais des accès généraux du portail (qui « valent » pour toutes les vidéos composant la banque des données AAR). Sur le portail AMSUR, le corpus en question se présente sous une forme profondément retravaillé selon les objectifs éditoriaux propres au portail AMSUR. (figure 5 : Accès à une série de republications d'un entretien avec l'ethnomusicologue Sabine Trebinjac du CNRS : republication sous forme de plusieurs dossiers bilingues et pédagogiques)
Un corpus audiovisuel « profondément retravaillé » veut dire que les vidéos qui font partie du corpus sont : 1. localisées dans le fonds (AAR) et sélectionnées selon leur pertinence en référence à la politique éditoriale du portail ; 2. redécoupées en segments pertinents (selon la politique éditoriale propre au portail) ; 3. reclassées à l'aide d'un métalangage (i.e. d'une ontologie de domaine) propre au portail ; 4. re-décrites et re-indexées à l'aide d'une bibliothèque de modèles de description propre au portail ; ESCoM AAR 5. re-contextualisées (i.e. mises en relation avec d'autres données selon la politique éditoriale du portail) ; 6. « mélangées » avec d'autres données afin de donner lieu à de nouvelles publications. Ces six étapes composent la problématique du « repurposing » (aussi : réappropriation, réécriture, republication, re-documentarisation, ) des données numériques archivées. Elles font aujourd'hui intégralement partie du travail d'archivage numérique des patrimoines culturels et scientifiques par le programme ESCoM-AAR. Les genres de republications expérimentés à l'ESCoM-AAR depuis 2007 sont les suivants : Les vidéo-lexiques : Corpus de segments assez brefs de vidéos qui illustrent un terme, une notion, un domaine, Exemples : Le vidéo-lexique « Peuples du monde »8 ; Le vidéo-lexique « Introduction à la Sémiotique » (en italien, français et anglais)9. Les dossiers bilingues : Republication d'une vidéo (ou d'une partie d'une vidéo) dans une languecible différente de la langue-source. Exemples : Republication (en arabe, chinois, anglais, italien, ) d'un entretien en français avec Sabine Trebinjac (CNRS) consacré à la musique ouïgoure 10 (figure 5). Les dossiers thématiques : analyse et explication des grandes thématiques dans une prestation (entretien, séminaire, ) ; les vidéos sont totalement délinéarisées! Exemples: Republication – en français et arabe - d'une conférence de Joëlle Allouche-Benayoun (02/04/2008) sur La place de la femme dans le judaïsme (passages thématiques – encyclopédie – lexique)11.
2.2. Axe 2 : Studio ASA (Atelier Sémiotique Audiovisuel) : Plateforme de travail scientifique et éditorial des AAR
L'objectif du programme AAR lancé en 2002 par l'ESCoM n'étant pas seulement de constituer un projet d'archivage numérique du patrimoine scientifique des SHS, une partie importante de ses activités de R&D depuis 2004 a été consacrée au développement d'une plateforme scientifique et technique pour la production et la gestion d'archives audiovisuelles ainsi que la description et la publication du fonds faisant partie d'une archive. Cette plateforme est aujourd'hui constituée de 2 environnements de travail : 1. L'environnement AAR, développé entre 2004 et 2009, utilisé le portail des Archives Audiovisuelles de la Recherche12. 2. L'environnement ASA, développé dans le cadre du projet ASA-SHS à partir de 200913, utilisé pour les portails Semioscape14. 10 http://www archivesaudiovisuelles.fr/1051_fr/ 11 http://www.archivesaudiovisuelles.fr/1405_Allouche-Benayoun_fr/ 12 http://www.archivesaudiovisuelles.fr 13 Site officiel du projet ANR « ASA-SHS » : http://www.asa-shs.fr/; blog scientifique : http://asashs.hypotheses org/ 14 http www
ESCoM-AAR 2014 2.2.1. L'environnement AAR
L'environnement AAR est celui toujours utilisé pour la gestion et la publication du corpus audiovisuel des Archives Audiovisuelles de la Recherche sur le portail AAR. La figure 6 représente schématiquement cet environnement.
ESCOM SUITE Production Audiovisuelle Chapitrage Interview Encodage ffCoder Playlists PlaylistMaker ---- ---- ---- Indexation (standard) Publication Gaav ---- ---- ---- BACK OFFICE Serveurs de streaming SEMIOSTREAM (Windows Media) SEMIOFLASH (Flash) Serveur Web SEMIOWEB (IIS) Base de données ESCoM-AAR KRUGER (MSSQL) Web Services ESCoM SEMIOLIVE (IIS) PORTAIL AAR SITES « CORPUS » Vidéothèque Video-book interactif (figure 6 : L'environnement AAR)
Le processus de travail suivi par les utilisateurs est défini par une suite de tâches successives réalisées à l'aide d'outils appelés ESCoM Suite. Ces outils communiquent avec les serveurs du back office par Internet (http ou ftp), et sont donc utilisables à distance. 1. Chaque vidéo est d'abord encodée avec ESCoM ffCoder, en 2 formats Windows Media (100 et 1400 kbps) et 2 formats Flash (16 et 700 kbps). Les fichiers ainsi produits sont ensuite copiés par ftp sur les serveurs de streaming, respectivement SEMIOFLASH (Red 5) et SEMIOSTREAM (Windows Media Server). 2. Chaque vidéo est ensuite itrée virtuellement avec ESCoM-INA Interview. Ce chapitrage est ensuite converti en playlists asx à l'aide de l'outil ESCoM PlaylistMaker (outil maintenant intégré dans ESCoM-INA Interview). 3. Enfin, le résultat de ce travail est importé dans ESCoM Gaav. Cet outil sert à gérer les publications des vidéos sous forme d'évènements (ou de « mini-sites »). Outre le chapitrage des vidéos, l'auteur édite dans Gaav les informations relatives à l'événement qui constitue l'objet des documents audiovisuels (par informations signalétiques, présentation, intervenants, thèmes, pages additionnelles, ressources supplémentaires, etc.). 4. Ces informations sont enregistrées dans la base de données ESCoM-AAR, via le serveur de services web SEMIOLIVE. Elles sont ensuite traitées par le serveur web SEMIOWEB qui produit des publications automatiques de chaque évènement sous forme de mini-site et d'accès aux contenus M-AAR sous forme de vidéothèque. Cette technologie est celle utilisée par le portail AAR, ainsi que les sites « corpus ». En outre, SEMIOLIVE héberge des services supplémentaires tels que l'envoi des newsletters, la mise à jour des flux RSS, etc. 2.2.2. L'environnement ASA
L'environnement ASA est celui utilisé pour la description et la publication sémiotiques du corpus audiovisuel des Archives Audiovisuelles de la Recherche sur les portails Semioscape15. La figure 7 représente schématiquement cet environnement (les éléments en rouge sont en cours de développement et devraient être déployés en décembre 2013). Le processus de travail suivi par les utilisateurs est défini par une suite de tâches successives réalisées à l'aide d'outils appelés Studio ASA. Ces outils communiquent avec les serveurs du back office par Internet (http ou ftp), et sont donc utilisables à distance.
STUDIO ASA Atelier de Publication Atelier de Gestion des Médias Semiosphere Production Audiovisuelle Atelier d'Encodage ffCoder Atelier de Modélisation OntoEditor Atelier de Segmentation Atelier de Description Interview BACK OFFICE Serveurs de streaming SEMIOSTREAM (Windows Media) SEMIOFLASH (Flash - Mpeg-4) Serveur Web & Cache SEMIOSPHERE (IIS, Umbraco) Base de données SEMIOSCAPE KRUGER (MSSQL) PORTAILS SEMIOSPHERE ---------------------- A ----B (Figure 7 : L'environnement ASA) 15 http://www.semioscape.fr Page Web Services ESCoM SEMIOLIVE (IIS) IMPORT/EXPORT De
puis
/
vers d'autres formats (RDF/OWL, LOM.fr, OAI, etc.) MOISSONNAGE (Isidore, Europeana, etc.) ESCoM-AAR 2014 1. Chaque vidéo est d'abord encodée en plusieurs formats avec ESCoM ffCoder. 2. Chaque vidéo sera ensuite enregistrée dans la base de données SEMIOSCAPE à partir de l'interface Umbraco de SEMIOSCAPE, et chacun des fichiers compressés automatiquement uploadés sur les serveurs de streaming. Seront ainsi stockées les informations générales de la vidéo (titre, date, lieu, auteurs, etc.), ainsi que les urls de chaque format disponible pour la vidéo. 3. vidéos sont segmentées puis décrites avec ESCoM-INA Interview, en utilisant les modèles de description et méta-ressources préalablement développés avec ESCoM OntoEditor (ces métadescriptions et méta-ressources sont enregistrées dans la base SEMIOSCAPE, via le serveur de services web SEMIOLIVE). 4. Ces données sont traitées par le serveur web SEMIOSCAPE qui produit des publications automatiques de chaque méta-description et des accès aux contenus sous forme de vidéothèque (accès par sujet, géolocalisation, type de collection, participant, etc.). Cette technologie est celle utilisée par tous les portails Semioscape. 5. L'interface Umbraco de SEMIOSCAPE permet également aux auteurs de publier ces métadescriptions sur leur portail sous forme de dossiers vidéo (thématiques, bilingues, pédagogiques, etc.). En outre, des fonctionnalités CMS leur permet de personnaliser leur portail, définir et mettre à jour leurs rubriques, articles, actualités, page d'accueil, etc. A noter que le serveur SEMIOSCAPE jour également le rôle de serveur de cache. 2.2.3. Le Studio ASA (Atelier Sémiotique Audiovisuel)
Le Studio ASA est la plateforme de travail de l'ESCoM (son « lab ») pour instrumenter : a) un projet d'archivage numérique stricto sensu ; b) et son appropriation/exploitation par un « digital humanist », un « digital knowledge professionnel » dans le cadre, par exemple, d'un projet de remédiation ou republication d'un corpus de ressources audiovisuelles. La figure 8 montre schématiquement le Studio ASA qui est composé de quatre ateliers : 1. 2. 3. 4. Atelier de segmentation d'une ressource audiovisuelle ; Atelier d'analyse d'une ressource audiovisuelle ; Atelier de publication d'une ressource audiovisuelle ; et Atelier de modélisation de l'univers du discours d'une archive audiovisuelle. Le métalangage de description, lui, comprend des éléments métalinguistiques plus spécialisés nécessaires pour spécifier la bibliothèque de modèles de description propre à l'univers du discours d'une archive ou d'un corpus textuel comme, par exemple : un vocabulaire conceptuel (une ontologie) spécifiant les objets d'analyse qui font partie de l'univers du discours ASA ; un vocabulaire conceptuel (une ontologie) spécifiant les procédures et activités d'analyse de l'univers du discours ASA ; une bibliothèque de schémas d'indexation définissant les différents types d'indexation dont peut être pourvue une procédure ou activité de description ; un thesaurus réunissant des expressions normalisées à usage répété ; des ontologies de domaines dont chacune correspond à l'univers du discours d'une archive. Studio ASA Atelier de Modélisation OntoEditeur Atelier de Segmentation Interview Atelier de Description Interview Atelier de Publication Semiosphere Interface de travail « formulaires ») Ontologie de l'univers du discours ASA
Ontologie du domaine d'une archive Bibliothèque de modèles de description (propre
à une archive) (
figure 8. Le
Studio ASA
–
représent
ation graphique
)
Conception et développement de cet environnement ont été rendus possibles depuis 2006 grâce à plusieurs projets de R&D européens et français importants dont, plus particulièrement, le projet ASA-SHS16 financé par l'ANR entre 2009 et 2011. Le Studio ASA fait également l'objet de nombreuses publications depuis 2010. Ensemble, avec les recherches autour du programme (scientifique) AAR, il est extensivement traité dans deux ouvrages collectifs réalisés fin 2011 et publiés (en français) par les Editions Hermes et (en anglais) par les éditions Wiley17,18 à New York. Enfin, une monographie scientifique, publiée en 2012, est consacrée exclusivement au métalangage de description de corpus de textes (audiovisuels). Cette monographie a été de nouveau publiée chez Hermes (pour l'édition française) et chez Wiley19 (pour l'édition anglaise). 2.3. Axe 3 : Campus AAR : Transfert et partage des connaissances et technologies pour l'archivage et la diffusion de patrimoines scientifiques et culturels
Un nombre de plus en plus important de personnes (chercheurs, enseignants, professionnels, ) et d'institutions (universités, laboratoires de recherche, associations, musées, ) cherchent à préserver, à partager et à valoriser leurs patrimoines intellectuels à l'aide des médias numériques (textes, images fixes, 16 Site officiel du projet ASA-SHS : http://www.asa-shs.fr/; carnet de recherche : http://asashs.hypotheses.org/ 17 http://public.j.eblib.com/EBLPublic/PublicView.do?ptiID=1124646 18 http://books.google.fr/books?id=f & = 19 AAR vidéos, ) sous forme de corpus ou de collections thématiquement organisés et de publications adaptées à des usages spécifiques. Campus AAR est un projet de R&D qui a comme objectif de mettre en place une plateforme « communautaire » pourvue de toutes les technologies, outils, méthodes et procédures indispensables pour pouvoir mener à terme un tel projet. Financé par l'ANR (Agence Nationale de la Recherche) dans la cadre de son programme CONTINT, le projet Campus AAR débute officiellement en janvier 2014. Campus AAR est coordonné par l'ESCoM-AAR de la FMSH. Le consortium est composé par l'ESCoM-AAR, l'INA (Institut National de la Recherche), le CNRS-CCSd (Centre National de la Recherche Scientifique – Centre de Communication Scientifique Directe/HAL), le MESR-CERIMES (Ministère de l'Enseignement Sup et de la Recherche – CERIMES/CANAL U) ainsi que par la société Armadillo.
2.3.1. Les objectifs du projet Campus AAR
Plus concrètement parlant, les partenaires du consortium du projet Campus AAR se proposent de coordonner leurs efforts de recherche et de développement autour des 5 axes majeurs suivants : 1. Axe 1 : Réalisation d'un démonstrateur (d'un prototype opérationnel) d'une plateforme logicielle (appelée Studio Campus AAR) offrant la possibilité aux acteurs (individuels ou collectifs) du monde des SHS de réaliser et de gérer d'une manière autonome leurs archives personnelles de ressources audiovisuelles. 2. Axe 2 : Mise à la disposition à tout utilisateur de la plateforme Studio Campus AAR, des ressources conceptuelles et cognitives communes, prêtes à l'emploi pour un projet d'archive personnelle : 2.1) ontologie de base (= générique) pour les SHS, thesaurus commun et modèles de base de description/indexation de ressources AV ; 2.2) interface de travail composée de « formulaires » interactifs personnalisables pour la constitution, description et (re-)publication de corpus AV ; 2.3) possibilité d'utiliser des standards communs tels que OAI, DC ou LOM, de langages et de thesaurus usuels (ex. 2.3.2. Partenariats consacrés à la mise en place d'archives audiovisuelles
En attendant le démarrage officiel du projet Campus AAR, planifié pour début janvier 2014, l'ESCoM-AAR a d'ores et déjà initié un ensemble de partenariats portant sur des projets concrets d'archivage numérique de patrimoines audiovisuels et de leur exploitation sous forme de publications enrichies et adaptées à des usages spécifiques : 1) Coopération avec l'Université François-Rabelais de Tours portant sur la création d'une archive audiovisuelle consacrée au patrimoine ouvrier de Vierzon20. 2) Coopération avec le laboratoire CRLA (Centre de Recherches Latino-Américaines) du CNRS et de l'Université de Poitiers autour du portail audiovisuel AMSUR21 consacré au patrimoine culturel et historique de l'Amérique Latine. 3) Coopération avec les Archives Henri Poincaré (UMR 7117 - CNRS/Université de Lorraine) et le Centre d'Histoire des Sciences et des Philosophies Arabes et Médiévales (équipe de SPHERE, unité mixte de recherche du CNRS et de l'enseignement supérieur (UMR 7219), associée à l'Université Paris 7 Diderot) portant sur la mise en place d'une archive audiovisuelle en histoire des mathématiques et des géométries. 4) Coopération avec l'Association des Amis du Pays de Civaux portant sur la création d'une archive audiovisuelle consacrée au patrimoine rural et culturel de la commune de Civaux, département de Vienne22. Du point de vue de l'ESCoM-AAR, tous ces projets de coopération poursuivent les objectifs suivants : 1) préparer d'une manière aussi efficace que possible le démarrage du projet Campus AAR luimême ; 2) vérifier et généraliser les procédures d'archivage numérique mises en place par l'ESCoM-AAR depuis 2002 ; 3) vérifier la robustesse du métalangage ASA élaboré l'ESCoM-AAR depuis 2006 ; 4) expérimenter des bibliothèques de modèles génériques de description facilement adaptables à des archives audiovisuelles les plus variées. 2.4. Axe 4 : e-Sémiotique : Recherche et développement sur les nouveaux écosystèmes de l'information et de la connaissance
Les activités consacrées aux trois premiers axes ont toujours été guidées par une vision scientifique spécifique de la problématique des archives (ou bibliothèques) numériques ainsi que de l'organisation, de la circulation et de l'utilisation de connaissances dans les médias (médias numériques, mais aussi médias au sens plus classiques). Cette vision est exprimée par le slogan du tournant sémiotique (en anglais, on parle plutôt du « linguistic turn ») dans la gestion des connaissances. Voici, d'une manière succincte, les 4 thèmes scientifiques autour desquels s'organisent les activités et projets de l'ESCoM-AAR : 20
Prototyp
e
du portail « Mémoire ouvrière de Vierzon : http://www.memoirevierzon.msh-paris.fr/ 21 http://www.amsur.msh-paris.fr/ 22 Prototype du portail « Mémoire de Civaux » : http://www.memoirecivaux.msh-paris.fr/ ESCo
M-
AAR 1) Le
« semiotic
turn
» des archives numériques.
2) Méthodologie Projet Archives numériques et remédiation. 3) Ecosystèmes d'information, acteurs sociaux et patrimoines de connaissances.
2.4.1. Le « semiotic turn » dans les archives numériques
Les activités de recherche et de développement de l'ESCoM-AAR consacrées aux archives numériques adoptent une approche résolument textuelle et discursive des archives (approche popularisée sous l'expression « linguistic turn » dans la recherche sur les archives. Défini d'une manière très générale, on suppose que les données (textuelles et autres) archivées forment, ensemble, un univers de discours qui exprime une culture, une conception culturelle (des savoirs, des visions, des doctrin , des valeurs, etc.) du « domaine », du « secteur de la réalité » documenté par les dites données archivées. 1) Dimension textuelle (modèles de segmentation) 2) Dimension paratextuelle (modèles d'identification, ) 3) Plan audiovisuel (modèles du plan visuel; modèles du plan acoustique) Vidéo (objet, ressource) 4) Plan topique (modèles du sujet: quoi? où? quand? comment? ) 5) Plan discursif (modèles des genres utilisés: exposé, récit, débat, ) 6) Plan narratif (modèles d'enchainement de segments, pas développés) 7) Contexte d'origine (modèles de la génétique textuelle, pas développés) 8) Contexte d'usage (modèles d'exploitation, de « mise en relation ») 9) Contexte d'archivage et de pérennisation (modèles de stockage et de conservation) (Figure 9 Les différentes dimensions structurales de la donnée audiovisuelle prise en compte par les modèles de description composant l'interface de travail du Studio ASA) Cette approche a été initiée, entre autre, par des savants comme Michel Foucault, Michel de Certeau ou Jacques Derrida. Récemment, le « linguistic turn » dans les archives a été discutée et approfondie par Louise Craven et al23ainsi que d'une manière plus générale par Trevor Owens en traitant la question du statut d'une donnée numérique dans les digital humanities comme suit: "As a species of human-made artifact, we can think of data sets as having the same characteristics as texts. Data is created for an audience. Humanists can, and should interpret data as an authored work and the intentions of the author are worth consideration and exploration."24 23 Cf. Louise Craven (éd). What are Archives? Cultural and theoretical perspectives; Ashgate Publishing 2008 24 in : Journal of Digital Humanities (1/1 2011). Le "semiotic turn" dans les archives numériques ne reste
pas
,
dans le
cadre des activités de
R&
D
de
l 'ESCoM-AAR, une simple notion de principe, un simple postulat. Il est très concrètement implémenté dans le coeur même de la plateforme scientifique et technique du Studio ASA et expérimenté à travers des activités d'analyses et de (re)publications de corpus audiovisuels variés faisant partie des portails « nouvelle génération » (cf. (Figure 10. Accès aux modèles de description d'une ressource audiovisuelle via l'interface de l'Atelier de Description du Studio ASA)
Le Studio ASA, pour chaque dimension, chaque plan (cf. figure 9) spécifie et met à la disposition de l'utilisateur soit une classe de modèles uniques (i.e. valide pour toutes les archives), soit une classe de modèles multiples (i.e. adaptés aux spécificités d'une archive particulière et pouvant varier d'une archive à une autre). 25 Cf. http://www.agora.msh-paris.fr/ 26 Cf. http://www.amsur.msh-paris.fr/ 27 Cf. http://www.alia.msh-paris.fr/ 28 Cf. http://www.pcia.msh
-
paris
.
fr/ 29 Cf. http://www.ada.msh
paris fr/
Cf
Un modèle de description sert à définir la structure et le contenu des métadonnées relatives à une donnée audiovisuelle. Les métadonnées « servent » à classer les données audiovisuelles dans une archive (= AIP au sens de OAIS) ; à exporter les données (= SIP au sens de l'OAIS) vers d'autres archives. Il s'agit, par exemple, du dépôt légal du fonds audiovisuel et de l'ensemble des données du programme AAR à la Bibliothèque Nationale de France (BnF), du dépôt pérenne des données dans les archives HAL et HAL-Vidéo du CNRS-CCSD; de l'agrégation et de la diffusion plus large des ressources audiovisuelles du programme AAR via, par exemple, ISIDORE, UOH, Europeana, etc. La figure 10 montre comment les modèles de description sont intégrés dans l'interface de l'Atelier de Description du Studio ASA et rendues accessibles à l'analyste travaillant sur une ressource audiovisuelle ou un corpus de ressources audiovisuelles. Les éléments du métalangage ASA composant les modèles de description sont : 1. une hiérarchie de concepts relatifs aux objets d'analyse des archives au sens des AAR ; 2. une hiérarchie de concepts relatifs aux procédures de description et d'indexation d'un texte audiovisuel ; 3. des relations entre les concepts permettant d'associer les concepts entre eux pour en faire : 3.1. des schémas et séquences de description et d'indexation qui forment à leur tour 3.2. les modèles de description (composant l'interface de travail du logiciel Interview) 4. un thesaurus à facettes permettant l'utilisation de valeurs prédéfinies (des « descripteurs ») dans des contextes sémantiques variés. La gestion du métalangage ASA, de ses différents éléments ainsi que des modèles de description communs à toutes les archives ou spécifiques à telle ou telle archive, se fait via l'outil OntoEditeur, un éditeur xml qui fait partie de l'Atelier de Modélisation du Studio ASA. OntoEditeur permet, plus particulièrement : la gestion du métalangage ASA (corrections, modifications, enrichissements, ), l'élaboration des modèles de description formant la bibliothèque des modèles de description propres à une archive audiovisuelle (exemple: AMSUR; AGORA; PCIA), l'export du métalangage et des modèles de description en format rdf/owl et, bientôt SKOS (« passerelle » entre ASA et OAI, Rameau, MODS, MARC 21, EAD, etc). Les principaux enjeux de cet axe de recherché sont les six suivants: 1) Rendre "massivement" interopérable le métalangage ASA avec les principaux standards, normes, langage d'indexation, thesaurus, utilisés dans le domaine des bibliothèques/archives numériques tel que OAI, RAMEAU, DCC, UDC, LCC, MODS, MOTBIS, MARC 21, EAD, LOM, ) en utilisant les possibilités offertes par SKOS. 2) Produire des versions multilingues du métalangage ASA via un système de pré-traduction automatique suivi d'une phase de validation par des traducteurs humains (actuellement, un premier prototype est un train d'être développé et testé à l'ESCoM-AAR sur des couples de langue « Français – Allemand » ; « Français – Anglais » ; « Français – Vietnamien ; « Français – Arabe »). 3) Produire une bibliothèque de modèles de base de description pouvant être utilisés tels quels par tout acteur désirant créer une archive audiovisuelle mais ne possédant pas les ressources (humaines, financières, ) nécessaires pour procéder à une véritable modélisation conceptuelle et cognitive du domaine de référence de son archive. 4) Expliciter davantage les contraintes sémantiques entre les différents éléments composant le métalangage ASA, les implémenter et les utiliser dans une construction « guidée (par l'application) » de nouveaux modèles de description. 5) Investiguer certaines dimensions de l'entité textuelle au sens sémiotique pas encore systématiquement explorées/prises en compte comme, par exemple, le plan acoustique d'une ressource audiovisuelle, le plan rhétorique et discursif ou encore la partie « usabilité » d'une ressource audiovisuelle. 6) Améliorer la gestion et le partage des index générés par les analystes sous forme, par exemple, d'affichage dynamique dans les interfaces des modèles de description 2.4.2. Méthodologie Projet Archives numériques et remédiation : Procédures, documentation et outils
Depuis 2002, l'ESCoM-AAR a investi beaucoup d'efforts dans la définition, l'explicitation et la documentation d'une approche méthodologique générale pour la production, description/publication, exploitation d'archives numériques (audiovisuelles). Aujourd'hui, cette méthodologie est parfaitement opérationnelle, totalement respectée dans le processus de travail quotidien de l'équipe. Elle sera mise à la disposition de toutes les parties prenantes dans le cadre du projet Campus AAR (cf. ci-dessus : Axe 3). L'ESCoM-AAR distingue deux étapes centrales dans le travail avec et autour des archives numériques : 1ère étape : L'« archivage numérique » à proprement parler 2ème étape : L'étape du « repurposing » (exploitation, appropriation, transformation qualitative, ) d'une donnée archivée. 1ère étape : L'« archivage numérique ». Le modèle organisationnel développé par l'ESCoM-AAR comprend 6 phases centrales caractérisant un projet d'archivage numérique au sens des AAR 1. 1ère phase: Activités préparatrices en amont de la documentation d'un « terrain » (lato sensu). 2. 2ème phase: Activités d'enregistrement du terrain (lato sensu), de collecte des données et de la constitution d'un corpus de documentation du terrain. 3. 3ème phase: Activités de préparation technique et conceptuelle (« métadonnées de base ») des corpus à verser dans les archives et versement des corpus (= les SIP de l'OAIS). 4. 4ème phase: Classement, description et indexation des données à archiver (= les AIP de l'OAIS). 5. 5ème phase: Edition et diffusion des corpus audiovisuels traités et analysés préalablement (= les DIP de l'OAIS). 6. 6ème phase: Activités de clôture du travail sur un corpus archivé et diffusé (dépôt légal; pérennisation; sauvegardes, ). Chacune des six phases se différencie en une série d'activités spécialisées, connaît des procédures explicites et documentées et est instrumentée (= outils + métadonnées; cf. ci-après le Studio ASA). Le modèle a été réalisée – dans la mesure du possible – par rapport à et à l'aide des deux normes/standards techniques de référence suivants: OAIS (Open Archival Information System; norme ISO 14721): Modèle conceptuel pour la production, gestion, diffusion et pérennisation de données numériques ; PAIMAS (Producer-Archive Interface Methodology Abstract Standard) – PAIS : Guide identifiant le cadre général de la constitution d'une archive numérique: phases, activités, paquets d'information OAIS.
2ème étape : L'étape du « repurposing » (exploitation, appropriation
transformation qualitative, remédiation) d'une donnée archivée. Cette deuxième étape concerne le travail, l'expertise du chercheur, de l'enseignant, du spécialiste, qui transforme une donnée audiovisuelle en une ressource intellectuelle à proprement parler (pour le chercheur, l'enseignant, ). ESCoM-AAR 2014
Le modèle d'archivage numérique stricto sensu développé par l'ESCoM-AAR ainsi que les deux normes/standards de référence OAIS et PAIMAS ne formalisent que la première étape du travail d'un « digital humanist » (ou d'un « digital knowledge professionnel », ), c'est-à-dire : ils ne formalisent que le travail de la numérisation des données documentant un domaine et leur archivage. Mais ils ne tiennent pas réellement compte de la deuxième étape, i.e. de celle de la transformation qualitative d'une donnée archivée par un acteur, de son appropriation par ce dernier (figure11 : Le « combined life cycle model » d'une donnée audiovisuelle dans le cadre des archives du programme ESCoM-AAR) Une représentation plus complète des cycles de vie d'une donnée est fournie par la DDI (Data Documentation Initiative) et le CESSDA (Council of European Social Science Data Archives) sous le sigle du « combined life cycle model » (figure 11). Le combined life cycle model d'une donnée " incorporates either direct dissemination to users or dissemination through data archives and recognizes that data can be reprocessed at later points in its life cycle, creating an iterative process. () This means that the life cycle is no longer linear but has become circular. We viewed repurposing of data as being a secondary use of the data from a study". (DDI 2009, p. 8).
La figure 12 représente schématiquement les principaux éléments qui sont à l'oeuvre dans le processus du repurposing d'une ressource numérique (d'un corpus de ressources numériques) dans le cadre du programme ESCoM-AAR.
Ce processus comprend, comme décrit ci-dessus (cf. section 2.14), toute une série d'étapes précises dans le travail de l'analyste (le « digital humanist », l'enseignant, le chercheur, ) visant la republic de ressources numériques déjà existantes afin de les adapter à des usages spécifiques. Dans le cadre du nouveau projet Campus AAR et à l'aide des divers partenariats consacrés à la création d'archives audiovisuelles spécialisées (cf. ci-dessus, l'axe 3 – le projet Campus AAR), l'ESCoM-AAR traitera plus en avant ce processus avec comme but de proposer à toutes les parties prenantes un modèle opérationnel et « normalisé »
2014 Deuxième étape = Travail d'appropriation/d'exploitation d'une donnée archivée
Ensemble d'activités I « Découverte et Analyse » Modélisation (Métalangage ASA: thesaurus, modèles de description, standards) Localisation, Analyse ASA (ré-segmentation, redescription, réindexation) Ensemble d'activités II (Réutilisation/republication Publications automatiques ASA (exploitant les résultats de la descriptionindexation du corpus) Publications « auteur » ASA (selon un scénario auteur) (figure 12 : Les activités « Découverte et analyse » et « (Re-)publication dans le « combined life cycle model d'une donnée audiovisuelle dans le cadre des AAR) 2.4.3. Eco-systèmes d'information, acteurs
soci
aux et p
atrimoines
de
connaissance
En reprenant le concept de la gestion du hub d'informations de Vincent Ducrey31, on peut considérer que chaque acteur social (personne, groupe, communauté, organisation, ) est en quelque sorte « enveloppée » par une médiasphère via laquelle l'acteur produit, diffuse, partage, des informations (sur lui, sur ses « idées », ses activités, ). En même temps, la médiasphère forme l' « agora » sur laquelle l'acteur est à son tour l'objet d'informations. La médiasphère d'un acteur n'est pas seulement composé des médias « classiques » (presse, édition, radio, télévision, ) mais elle englobe également les médias de l'événementiel, de la communication directe et interpersonnelle a que, bien sûr, les médias numériques (dont, plus particulièrement, les dits médias sociaux). La médiasphère n'est pas une « enveloppe » neutre comme le montre, par exemple, la médiasphère contemporaine de la communication scientifique globale imposée aux chercheurs (notamment en SHS) qui les désavantage au détriment d'intérêts économiques (cf. les débats actuels très âpres sur la bibliométrie comme outil d'évaluation des chercheurs en SHS). C'est une structure sociotechnique qui, d'une part s'impose à un acteur social comme une « donne » historique et culturelle et qui, d'autre part, se voit être (ré-) appropriée, adaptée à ses intérêts et besoins. Par ailleurs, la médiasphère ne constitue qu'une dimension (ou qu'un une strate) de l'écosystème d'informations d'un acteur social. ESCoM-AAR 2014
L'ambition de l'ESCoM-AAR ici est triple : 1) produire une vision théorique de l'écosystème d'information qui caractérise un acteur social (en s'appuyant sur des études de cas concrets dans le domaine de la communication des organisations et de la marque, par exemple, mais aussi de la communication scientifique) ; 2) définir une approche méthodologique robuste pour : i. expliciter, analyser de tels écosystèmes d'information plus ou moins propres à un acteur social, ii. concevoir et réaliser des projets d'archivage numérique de données faisant partie de ces écosystèmes d'information 3) repositionner la problématique des archives numériques dans une perspective d'appropriation/de réappropriation de données numériques de toutes sortes, par l'acteur dans ses activités quotidiennes, professionnelles ou simplement personnelles. Ce quatrième axe de recherche est d'abord de nature exploratrice, se basant sur l'enseignement de certains des membres de l'ESCoM-AAR dans le cadre du parcours spécialisé de niveau Master (première année et deuxième année) CIM – Communication, Information et (nouveaux) Médias à l'INALCO (Institut National des Langues et Civilisations Orientales), il fera l'objet de séminaires, conférences et tables rondes spécifiques organisés dès 2014. A terme, cet axe doit permettre un repositionnement assez « radical » des archives numériques dans un contexte de production, de gestion et de transmission de patrimoines pour des acteurs sociaux tels que les administrations publiques, les entreprises, les collectivités territoriales et locales, les institutions culturelles, les ONG, les associations, etc. Il s'agit ici de comprendre, d'analyser et d'instrumenter la communication numérique des organisations à l'aide d'une approche résolument sémiotique..
| 10,802
|
4e9258bde9b021f976c6b3949554c480_2
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,023
|
Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble. Teoros. Revue de recherche en tourisme, 2018, Sexualités touristiques, 37 (2), 35p. ⟨10.7202/1055643ar⟩. ⟨hal-04259290⟩
|
None
|
French
|
Spoken
| 7,028
| 11,947
|
Il reste un sentiment de prise en compte très rapide des incidents de Barcelone à travers les propos énergiques du chef de gouvernement espagnol Mariano Rajoy ; il exhorte lors d’une conférence de presse les acteurs du tourisme à ne pas recevoir le touriste « à coups de pied », ce qui lui semble une aberration ; le tourisme représente une image positive de l’Espagne et de son économie15. Le groupuscule d’étudiants nie bien souvent dans des colloques, des manifestations et des feuillets les principes élémentaires de la démocratie, de l’économie de marché, de la liberté d’entreprendre. Selon les groupes d’activistes, le coupable est forcément le touriste et non pas les acteurs politiques incapables de prévoir à long terme leurs actions en planifiant des politiques publiques soutenables ; le coupable et encore une fois le touriste étranger – mais curieusement pas le touriste catalan ou même celui du reste de l’Espagne – et les Anglo-Saxons sont bien souvent stigmatisés. Il ne faut pas non plus oublier que le touriste n’est pas un touriste lambda, les comportements ne sont pas identiques chez tous les touristes, il existe aussi des touristes soucieux de comprendre la culture catalane et de respecter l’intérêt des populations locales et du bien public. La stigmatisation et l’exaspération visent généralement les touristes ivres, le plus souvent des étudiants qui choisissent Barcelone comme lieu où passer la semaine de relâche scolaire (spring break), à l’instar de Miami. L’alcool en vente libre, à des prix avantageux, ne fait qu’accentuer des dérives encouragées par la publicité de grandes marques de boissons énergisantes ou alcoolisées, avec des beuveries déguisées en happenings ou festivals. Quant aux touristophobes, combien sont-ils à Barcelone? Certainement pas la majorité silencieuse pro-touriste et encore moins, si l’on analyse les Téoros, 37, Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble sondages que la mairie a effectués pour à la fois se rassurer et donner une image ouverte de la capitale catalane. Moins de 10 % de la population voit dans l’attaque de l’autocar abordé plus haut un acte légitime. Pour les autorités de la Ville, l’activité touristique oblige les acteurs locaux à repenser une nouvelle gouvernance plus sévère avec des objectifs sur les court, moyen et long termes. Une gouvernance touristique à repenser dans ses attentes et ses objectifs 47
Le nouveau maire, Ada Colau, semble vouloir intervenir dans cette situation de crise sur le plan réglementaire, mais elle est aux prises avec ses propres contradictions qui vont parfois à l’encontre de l’économie de marché, du libre choix des propriétaires et du secteur économique très réticents à limiter un tourisme de masse en situation de crise économique, comme lors de la récente polémique sur la diminution de moitié du nombre de croisiéristes (Borja, 2015). 48 En 1993, la création de l’agence Barcelona Turisme a permis d’accompagner l’après-JO 1992 grâce, entre autres, au succès de sa shopping line et au fait de développer à long terme une image de « ville festive » à partir de ses schémas de développement (Deloitte, Rivau Consulting, 2014) : ce dernier point se retourne aujourd’hui contre ses habitants. Barcelone, la ville de la fête, la ville des étudiants, des spring breaks à l’européenne, cette image est devenue difficile à gommer. Il reste aussi tout le monde de la nuit et de la prostitution qui s’intègre pleinement dans les interrogations de l’image de la ville déjà réputée pour ses caractéristiques d’attractivité sur le marché du sexe depuis le début du XXe siècle. Le plus fameux club pornographique – Le Bagdad Porno-Show – et tout un réseau interlope gravitant autour de ce secteur en forte croissance sont favorables à l’accueil en masse des touristes, souvent des hommes seuls ou en groupe. 49 Enfin, le conflit lancinant avec la Top Manta (mafia africaine) (O’Malley et al., 2013) qui occupe une bonne part de l’espace public portuaire et des lieux touristiques la nuit avec la vente « à la sauvette » d’objets de contrefaçon n’est pas réglé, en partie en raison des propos contradictoires du maire et son positionnement envers les migrants, désorientant les forces de police et renforçant le commerce illégal (Palem, 2015). Ce phénomène de non-récupération de la TVA enrichit des groupes mafieux en Afrique, tout en détruisant le commerce local et consolidant les tensions contre les étrangers par une non-prise en compte d’une possible gouvernance humaniste et raisonnable. Tout au contraire, les espaces publics barcelonais voient s’additionner des masses de touristes, des migrants depuis la crise syrienne, et des vendeurs illégaux, ce qui a pour conséquence une quasiprivatisation (détournement) de l’espace public, notamment par la Top Manta qui étale sur les trottoirs des objets de contrefaçon et redéfinit les voies de circulation piétonne (Vallés Causada, 2009 : 189-215). Les déboires de l’acteur Javier Bardem, dans le film Biutiful (2010)16, montrent les dessous d’une telle économie mafieuse pour les vendeurs « à la sauvette ». 50 Depuis 1992, Barcelone se met en scène, on trouve même dans des circuits touristiques la visite des égouts, des tunnels de métro non terminés, des cimetières, des bateaux de pêcheurs et des collines environnantes avec leurs fermes bio. Le restaurant panoramique Corte Inglés, place de Catalogne, a réalisé une mini Rambla cafétéria (roof bar) pour assurer la continuité du service à l’intention du grand nombre de touristes. Le paysage urbain mute, se trouvant en désaccord avec la culture catalane comme avec la déclinaison Téoros, 37, 2 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble possible et « douce » (Levy et Lacombe, 2003) de boutiques et de clubs érotiques dans le centre-ville. 51 Enfin, le cosmopolitisme brouille l’image de la ville avec l’exemple du dernier café acheté par des ressortissants turcs sur La Rambla, offrant à l’intérieur des visages de femmes voilées comme décor mural pour se réserver une clientèle ethnique, contrastant avec les nymphes présentes sur la façade moderniste dissimulées par les nouveaux propriétaires grâce à un rideau marron. Non loin de là, le marché de la Boqueria aussi est devenu un marché touristique et non plus local. Pourtant, depuis plus de sept ans, des réglementations sont bien à l’œuvre, comme les campagnes de lutte contre l’incivilité présentes par le biais de l’Office de tourisme et ses prospectus, ainsi que des affiches de la mairie (illustration 5).
Illustration 5 : Café Aromas et marché de la Boqueria, 2017 et 2014, Barrio Gótico. Café Aromas de Istanbul, La Rambla et Marché de la Boqueria, La Rambla. Barcelone réfléchit depuis longtemps aux effets du tourisme de masse, par exemple le parc Güell qui propose, comme solution durable à la limitation des flux touristiques, la recherche de l’équité et de la viabilité d’un site touristique majeur. L’entrée au parc était gratuite, mais le parc Güell d’Antoni Gaudí sur les hauteurs de la capitale catalane a été fermé au public en 2013. La mairie n’a pas attendu les événements récents pour réfléchir aux actions possibles. Le parc a accueilli 9 millions de visiteurs en 2013 et plus de 2,5 millions en 2014, mais on observe une baisse de 60 % à 70 % de la fréquentation pendant les années suivantes, jusqu’en 2017. Néanmoins, le parc est rentable et rapporte presque chaque année 15 millions d’euros, ce qui permet de couvrir ses frais d’entretien ainsi que divers projets à venir. En 2013, la mairie a justifié une opération pour préserver le parc d’une trop forte fréquentation (plus de 3000 touristes par heure comparativement à 400 par demi-heure avec la nouvelle réglementation). La population locale n’est pas oubliée : environ 100 Barcelonais par heure, notamment les habitants des quartiers voisins, accèdent au parc de manière libre et gratuite pour se promener ou bien se rendre au métro situé de l’autre côté du parc17. 53 D’autres politiques entrent en vigueur pour Airbnb : les particuliers pourront louer pour un maximum de quatre mois un espace limité à deux chambres, tout en ayant l’obligation d’être présents dans l’appartement. Mais la réalité est qu’il y a en moyenne chaque année Téoros, 37, 2 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble plus de 140 000 annonces pour Barcelone sur les plateformes collaboratives de location et que les contrôles seront vains. L’année 2014 voit l’offre d’hébergement individuel en appartement supplanter celle des hôtels ; c’est tout un pan de l’économie locale qui est en convulsion, comme c’est le cas pour certaines autres capitales européennes. De plus, le gel visant la construction d’hôtels en centre-ville (plus de 600 en 2017 contre 200 en 1980) ne va pas durer tant les pressions du secteur marchand sont fortes, un exemple symbolique reposant sur la reconfiguration de la tour Agbar en hôtel de luxe après avoir été un gratte-ciel de compagnies. En plus de trente ans de forces, faiblesses, opportunités, menaces (FFOM), d’audits et de prospectus saluant les records établis en nombre de touristes par l’Office de tourisme, pas une fois les effets négatifs n’ont été abordés. Il faut attendre la révolte de la Barceloneta en 2014 pour voir que le discours officiel sur les effets du tourisme à Barcelone par les autorités change, et que soient mis en place des efforts de participation de la part de citoyens et d’experts, ainsi que des programmes d’action. Le premier plan stratégique pour le « nouveau tourisme de Barcelone » prend forme en 2017 et repose sur un travail conséquent d’analyse des données. Il propose de travailler sur les « transports doux » avec une stratégie reposant sur la dilution des masses de touristes près des lieux d’intérêt touristique, mais aussi sur la pédagogie et la mise en valeur des comportements plus durables, tout en renforçant les sanctions et la capacité à tirer des bénéfices de la numérisation des données d’ordre touristique18. L’idée du répertoire des entreprises durables est une première étape19 pour mesurer la durabilité du développement économique des entreprises de tourisme, ainsi que leurs impacts. Proposer des classements est une des options envisagées. Par ailleurs, la mairie diffuse des fascicules comme « Le nouveau côté du tourisme à Barcelone », avec parfois une vision angélique du comportement des touristes. Si les nouveaux profils et les dangers sont bien répertoriés, il reste à rédiger un rapport en évitant d’aborder tout problème qui risque de froisser certaines personnes, par exemple le rôle crucial des investisseurs internationaux à Barcelone. La Barcelone touristique face aux investisseurs internationaux 55
Les stratégies de la mairie de Barcelone peuvent être caractérisées parfois de difficilement applicables et en conflit avec les grands groupes internationaux. Avec le projet Euro Vegas d’un groupe américain peu recommandable voulant disposer d’une extra-territorialité en matière de droits d’impôts et des employés étrangers à embaucher, la nature du projet fait grandement polémique dans sa vision même d’une ville du vice et des jeux et son implantation tout près de l’aéroport international de Barcelone entre 2011 et 2015. À nouveau, les effets de la mondialisation se font sentir avec un investisseur douteux et des systèmes de rétro-commissions qui auraient fait de Barcelone une Las Vegas européenne (Sanz Fernández, 2012). Le projet change en 2015 en BCN World, tout proche de Salou (Rieucau, Jean, 2010), à moins d’une heure de la capitale régionale, projet qui comprend des hôtels de luxe et deux casinos. La venue d’investisseurs étrangers montre l’importance accordée à l’image de Barcelone comme vecteur de croissance ; parmi ces investisseurs, soulignons le célèbre groupe d’immobilier de luxe MELCO, qui a réalisé le complexe de loisirs City of Dreams de Macao. Mais depuis la nouvelle mandature d’Ada Colau, BCN a disparu du nom du projet au profit de Hard Rock Entertainment World. À chaque épisode de présentation de projets touristiques auprès des autorités municipales, le rapport à la crise économique et au chômage de masse que Téoros, 37, 2 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble connaît l’Espagne est présent, se retournant contre Euro Vegas et s’inscrivant dans une communication réfléchie pour Hard Rock Entertainment World à Salou, avec sa capacité à assurer un bond en avant dans le domaine de l’employabilité des loc Il existe aussi un point de divergences majeures au sujet des croisières à Barcelone. La mairie veut lutter contre la réalisation de nouveaux terminaux de croisières, mais de nombreux projets sont en cours et rappellent la rivalité très ancienne entre l’autorité portuaire autonome en charge de l’urbanisation d’une partie du littoral barcelonais et la mairie. Cette première autorité vote toujours en faveur de la réalisation de nouveaux terminaux, alors que la mairie, depuis trois ans, voit dans les croisières la pire des abominations pour Barcelone (Legoupil, 2013). La course à la concurrence et à la captation de nouveaux touristes se comprend avec le groupe Carnival, qui désire construire un nouveau terminal privé de croisières près de l’hôtel W, à proximité de la Barceloneta, et devenir de l’avis de certains le « Miami européen ». Avec plus de 30 millions d’euros d’investissements, Carnival veut ravir à Venise le titre de première place méditerranéenne pour les croisières « tête de ligne » (Garay, Prat et Cànoves, 2015 : 563-580). Comportant une surface intérieure de 11 500 mètres carrés et un parc de stationnement extérieur pour 300 voitures, il s’agit du plus grand terminal de croisières d’Europe. Ce terminal est symptomatique de l’urbanisme de loisirs voulu par les autorités barcelonaises depuis plus de trente ans : c’est un nouvel emblème urbain réalisé par l’architecte Ricardo Bofill, tout près de l’hôtel W, également construit par le même architecte, à proximité du siège social de Desigual avec, en ligne directe, le centre-ville puis la plage et la Barceloneta. 57 Le tourisme de magasinage « construit » en partie la ville contemporaine et la sphère marchande exerce une forte pression sur l’espace public en s’accommodant très bien du flot des touristes qui force à modifier les formes architecturales et les devantures des magasins. La nouvelle organisation spatiale de la ville résulte d’un contexte de laisserfaire pendant des années, marquant fortement le paysage urbain de la capitale catalane à travers un nouveau remodelage : social, culturel et identitaire. Ce développement économique a bouleversé la culture locale et l’identité de certains quartiers, dont le littoral barcelonais, au profit des intérêts économiques qui ont défiguré la ville. Citons l’exemple mexicain de Navarrete Escobedo et Pineda Almanza (2015 : 117-134) qui rappellent les mutations du paysage urbain par étape et par effet d’éviction des plus faibles pour le compte de la marchandisation des principaux lieux de culte mexicains. 58 La polémique du quai Adossat plus au sud de la ville avec le groupe MSC est identique à celle du quai Drasannes ; les projets de concession vantent les mêmes principes d’action et de profit. Les autorités portuaires ne veulent qu’une chose, « consolider la position de leader en Europe et en Méditerranée20 », et font la promotion de la « dessaisonalisation » afin d’obtenir une croissance soutenue dans les mois où il y a baisse des activités (Garay, Cànoves et Prat, 2015 : 23‐49). Pour les professionnels des ouvrages publics à Barcelone, il s’agit d’une course effrénée à toujours plus de touristes qui s’engage jusqu’à horizon 2028, tant que les parcelles de terrains seront disponibles sur le littoral : boutiques, terminaux, futur musée Hermitage et hôtels doivent coexister dans ce grand plan de remodelage Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble
Conclusion 59 Du projet urbain au projet touristique, traiter des effets du succès du tourisme à Barcelone impose de se pencher sur la réussite d’une expérience singulière d’aménagement et de régénération urbaine en Europe (Chaline, 1999), renforçant les aménités de la ville et permettant d’acquérir de nouveaux attributs d’attractivité. Cette mise en scène et en récit de la ville se réalise sur les plans de la communication et du marketing, mais elle ne s’est jamais intéressée aux effets négatifs à long terme du tourisme de masse ou de l’overtourism (surtourisme) sur les plans social, environnemental et économique (Aberget, 2018 : 11-14). Seuls comptaient les chiffres et les records des rapports statistiques du comité touristique barcelonais. 60 Il reste qu’une vie de quartier se meurt. Une vidéo intitulée Bye Bye Barcelone rappelle que les habitants ne connaîtront plus la Barcelone du passé, même celle des années 1990, tant le flux de touristes devient déroutant. Quant aux idées de décroissance touristique (Paquot, 2016 : 86‐89), elles ne prennent pas en compte la complexité du fait urbain. On peut avancer l’expression de « capacité de charge », au tout début appliquée aux parcs naturels américains, depuis généralisée au monde du tourisme (Deprest, 1997 : 176), mais masquant bien des problèmes d’ordre social et de capacité à vivre ensemble. Par exemple, pendant l’été 2016, il y a eu une quasi-congestion des ramblas, de jour comme de nuit 21. Les 27 millions de touristes annuels font une seconde Barcelone. L’activité touristique réalise le tour de force de requestionner et de réinterpréter un droit à la ville qui s’effrite du fait de la crise sociale (Costes, 2010 : 177-191). Une ville parallèle brouille les images de sa réussite : celle des touristes. 61 Entre 2000 et 2018, l’opinion publique barcelonaise disserte sur les masses importantes de touristes venant visiter une métropole en mutation, mais aussi profiter de la plage et des infrastructures modernes de la ville. Une autre population – le touriste – s’est agrégée à la population locale, ce qui implique un changement de perception par rapport à ce que cela peut, ou non, rapporter à la ville. L’opinion publique semble déplorer l’incivisme des visiteurs, souvent une clientèle jeune et estudiantine, mais la population reste toujours disposée à accueillir des touristes. Les conditions de vie des habitants et le rapport aux touristes impliquent des débats au sein de la sphère publique et politique ainsi que des interrogations sur le devenir des espaces de vie et de la mémoire des quartiers. Des dynamiques urbaines en lien avec les effets de la mondialisation contrarient fortement un mode de vie local et méditerranéen. On retrouve ce même phénomène au Liban avec des questionnements parfois écologiques et humanitaires (Karam, 2006). Pourtant, les spécialistes du tourisme oublient souvent que la Sagrada Familia est justement une réalisation issue des profits des touristes-pèlerins. Le résultat est une nouvelle stratégie marketing qui achoppe sur le vivre ensemble à travers des liens sociaux de plus en plus distendus (Perraton et Bonenfant, 2009). Le tourisme segmente à son tour la ville et accroît les différences et les contrastes sociaux spatiaux (Zmudzinska-Nowak, 2011 : 169-194). 62 Ce dialogue urbanistique, paysager et social entre le vieux port, le centre-ville et les nouvelles infrastructures du front de mer amène des mutations qui comportent de nombreux risques par rapport à la venue par millions de touristes dans un tissu social fragilisé par la crise économique et les soubresauts de l’attentat terroriste de La Rambla d’août 2017 et de la crise politique espagnole. De nouvelles tensions urbaines sont ros, 37, Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble identifiables à partir de la difficulté de pouvoir vivre ensemble, mais la prise de conscience d’un nouveau rapport à l’activité touristique se fait jour. 63
Aberget, Myriam, 2018, « Surtourisme : quel impact sur les voyageurs et les touropérateurs? », Le Quotidien du tourisme, 22 mars, <http://www.quotidiendutourisme.com/ production/surtourisme-quel-impact-sur-les-voyageurs-et-les-tour-operateurs/164846>, consulté le 11 avril 2018. 64 Ayuntamiento de Barcelona, 1981, Anuarios Estadísticos de la ciudad de Barcelona [Annuaires des statistiques de la ville de Barcelone], Barcelone, Departament d’Estadística. 65 Ayuntamiento de Barcelona, 2015, Estadísticas de barris, Barcelona [Statistiques des quartiers, Barcelone], Barcelone, Departament d’Estadística. 66 Ayuntamiento de Barcelona, 2017, Estadísticas de barris, Barcelona [Statistiques des quartiers, Barcelone], Barcelone, Departament d’Estadística, <http://www.bcn.cat/ estadistica/castella/documents/barris/03_CV_Barceloneta_2017.pdf>, consulté le 24 octobre 2018. 67 Ballester, Patrice, 2008, Barcelone, la Ville-Exposition. La cité catalane à travers ses Expositions universelles, internationales et Jeux olympiques 1888 – 2008. À la recherche d’une communauté des mémoires?, thèse de doctorat en urbanisme et aménagement , Université de Toulouse, 2 tomes. 68 Ballester, Patrice, 2013, « Fêtes mondiales et stratégie métropolitaines. Le Forum universel des cultures 2004 à Barcelone », Cidades, vol. 8 no 13, p. 381‐409. 69 Ballester, Rafael et Maria Dolores Gil, 2009, « ¿Por qué los jóvenes se dan atracones de alcohol los fines de semana? » [Pourquoi les jeunes se donnent en spectacle sous l’effet de l’alcool les fins de semaine?], Revista de Psicopatología y Psicología Clínica, no 14, p. 25‐35. 70 Barcelona Turisme, 2017, Estadístiques de turisme a Barcelona i comarques [Statistiques du tourisme à Barcelone et dans les départements limitrophes], Barcelone, Consorci Barcelona Turisme. 71 Belloso, Juan Carlos, 2011, « The City Branding of Barcelona: A Success Story », dans Keith Dinnie (dir.), City Branding: Theory and Cases, Hampshire, UK, Palgrave Macmillan, p. 118‐ 123. 72 Berdoulay, Vincent, Paolo Da Costa Gomes et Jacques Lolive, 2004, L’espace public à l’épreuve. Régressions et émergences, Pessac, Maison des Sciences de l’Homme d’Aquitaine. 73 Bohigas, Oriol, 1986, Reconstrucciό de Barcelona [Reconstruction de Barcelone], Barcelone, Edicions 62. 74 Borja, Jordi, 2003, « Barcelone ou les effets pervers de la réussite », Urbanisme, n o 331, p. 57‐61. 75 Borja, Jordi, 2015, « Nouvelle donne politique et urbaine à Barcelone », Urbanisme, no 387, p. 12‐13. 76 Brunet, Ferran, 2011, Analysis of the Economic Impact of the Olympic Games. Multidisciplinary Research and Dissemination of Olympic Studies, Barcelone, CEO-UAB (Centre d’Estudis Olímpics i de l’Esport – Universitat Autònoma de Barcelona), « 20 años », p. 219‐223. 77 Busquets, Joan, 1989, « De nuevo, la calle en el proyecto de ciudad. Algunas reflexiones sobre el Plan de Vías de Barcelona » [Du neuf, la rue dans le projet de ville. Quelques réflexions sur le Plan des voies de Barcelone], Casabella, nos 553-554, p. 11‐12. 22 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble
78 Capel, Horacio, 1974, « Agentes y estrategias en la producción del espacio urbano español » [Acteurs et stratégies dans la production de l’espace urbain espagnol], Revista de Geografia, vol. VIII, p. 19‐56. 79 Capel, Horacio, 2005, El modelo Barcelona: un examen crítico [Le modèle de Barcelone, un examen critique], Barcelone, Edición del Serbal. 80 Chaline, Claude, 1999, La régénération urbaine, Paris, Presses universitaires de France, coll. « Que sais-je », no 3496. 81 Champagne, Patrick, 1991, « Le traitement médiatique des malaises sociaux », Actes de la recherche en sciences sociales, no 90, p. 64‐75. 82 Costes, Laurence, 2010, « Le droit à la ville de Henri Lefebvre : quel héritage politique et scientifique? », Espaces et Sociétés, vol. 140-141, nos 1-2, p. 177‐191. 83 Deloitte, Rivau Consulting, 2014, Villes étrangères, synthèse générale. Études, tourisme et commerce, Paris, UCV, FEH, DGCIS (Union du grand commerce de centre-ville, Fédération des enseignes de l’habillement, Direction générale de la compétitivité de l’industrie et des services) et Atout France. 84 Deprest, Florence, 1997, Enquête sur le tourisme de masse. L’écologie face au territoire, Paris, Belin. 85 Dubar, Claude, 2011, « Temps de crises et crise des temps », Temporalités, no 13/2011, < https://journals.openedition.org/temporalites/1563>, consulté le 11 avril 2018. 86 Duccini, Hélène, 2004, « Stéréotypes nationaux en Europe : connaissance et méconnaissance de l’autre? », MédiasMorphoses, vol. 3, no 12, p. 67‐71. 87 Dunne, Gerard, Joan Buckley et Sheila Flanagan, 2010, « Towards an Understanding of International City Break Travel », International Journal of Tourism Research, vol. 12, no 5, p. 409‐417. 88 Galhardo, Jacques, 2013, « Ville et mondialisation, le centre ancien de Lisbonne », Le Globe, t. 153, p. 23‐38. 89 Garay, Llúis, Gemma Cànoves et Josep Maria Prat, 2015, « Barcelona, a Leader Destination in Cruise-Passenger Tourism: Keys, Impacts and Facts », International Journal of Tourism Sciences, vol. 14, no 1, p. 23‐49. 90 Garay, Llúis Alfons, Josep Maria Prat et Gemma Cànoves, 2015, Luces y sombras del turismo de cruceros [Lumières et ombres du tourisme de croisières], Documents d’Anàlisi Geogràfica, vol. 61, no 3, p. 563‐580. 91 Gonzales, Sara, 2011, « Bilbao and Barcelona ‘in Motion’: How Urban Regeneration ‘Models’ Travel and Mutate in the Global Flows of Policy Tourism », Urban Studies, n o 48, p. 1397-1418. 92 Gotlieb, Carlos, 2002, « Barcelone réaménage ses confins à l’horizon 2004 », Diagonal, n o 151, p. 20‐24. 93 Gravari-Barbas, Maria, 2000, « Stratégies de requalification dans la ville contemporaine. L’esthétisation du paysage urbain, symptôme d’une privatisation croissante des espaces publics », Cahiers de la Méditerranée, no 60, no 1, p. 223‐247. 94 Gravari-Barbas, Maria, 2002, Les nouveaux loisirs créent-ils un nouvel urbanisme?, communication présentée au Festival de géographie de Saint-Dié, <http://archives-fig-stdie.cndp.fr/actes/actes_2001/barbas/article.htm>, consulté le 11 avril 2018. , 37, 23 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble 95 Guárdia, Manuel, Francisco Javier Monclus et Jose Luis Oyón Bañales, 1995 Atlas historico de ciudades europeas: Peninsula Ibérica [Atlas historique des villes européennes : Péninsule ibérique], Barcelone, CCCB (Centre de Cultura Contemporània de Barcelona) et Salvat Editores. 96 Henry, Guy, 1992, Barcelone : 10 années d’urbanisme, la renaissance d’une ville, Paris , Le Moniteur. 97 Karam, Karam, 2006, Le mouvement civil au Liban. Revendications, protestations et mobilisations associatives dans l’après-guerre, Paris/Aix-en-Provence/Karthala, IREMAM (Institut de recherches et d’études sur les mondes arabes et musulmans). 98 Lefebvre, Henri, 1974, Le droit à la ville suivi de Espace et politique, Paris, Seuil. 99 Legoupil, Théophile, 2013, « Los conflictos que genera el turismo de cruceros en Barcelona y otros puertos mediterráneos » [Les conflits que génère le tourisme de croisières à Barcelone et dans les autres ports méditerranéens], Biblio 3W. Revista Bibliográfica de Geografía y Ciencias Sociales, no 1.049. 100 Levy, Joseph et Élyzabeth Lacombe, 2003, « Le tourisme sexuel : ses plaisirs et ses dangers », Téoros, vol. 22, no 1, p. 4‐9. 101 Loubière, Antoine, 2004, « Barcelone, Forum universel des cultures 2004 : La fin du consensus urbain barcelonais », Urbanisme, no 339, p. 20‐22. 102 Matthey, Laurent, 2007, « Si proche, si loin! Penser les processus urbains à partir des modèles de la géographie du tourisme? », Articulo, Journal of Urban Research, no 3, <http:// journals.openedition.org/articulo/613>, consulté le 11 avril 2018. 103 Monclus, Francisco-Javier, 2007, Exposiciones internacionales y urbanismo: el proyecto Expo Zaragoza 2008 [Expositions internationales et urbanisme : le projet Expo Saragosse 2008], Barcelone, Edicions Universidad Politécnica de Cataluña. 104 Navarrete Escobedo, David et Alma Pineda Almanza, 2015, « Tourisme religieux et transformations urbaines au Mexique », dans Nathalie Fabry, Virginie Picon-Lefebvre et Benjamin Pradel (dir.), Narrations touristiques et fabrique des territoires. Quand tourisme, loisirs et consommation réécrivent la ville, Paris, L’Œil d’or, p. 117‐134. 105 Nofre I Mateo, Jordi, 2009, « Les politiques culturelles et de la jeunesse dans l’aire métropolitaine de Barcelona », Sud-Ouest Européen : revue géographique des Pyrénées et du Sud-Ouest, no 27, p. 83‐95. 106 Oda, Eiichiro, 2014, One Piece – Doflamingo sort de l’ombre, Paris, Glénat, t. 70. 107 Olagnier, Pierre-Jacques, 2007, « Le tourisme, instrument pertinent des politiques urbaines? Le cas de Barcelone », dans Philippe Duhamel et Rémy Knafou (dir.) Mondes urbains du tourisme, Paris, Belin, p. 176‐187. 108 O’Malley, Mary P., Katie Lee-Brokks et Hannah B. Medd, 2013, « The Global Economic Impact of Manta Ray Watching Tourism », PLoS ONE, vol. 8, no 5, <https://doi.org/10.1371/ journal.pone.0065051>, consulté le 11 avril 2018. 109 Oyón Bañales, José Luis, 2001, Barcelona, 1930. Un atlas social, Barcelone, Edicions Universidad Politécnica de Cataluña. 110 Palem, Fabien, 2015, « À Barcelone, des vendeurs ambulants créent leur propre syndicat », RFI journal, Paris, <http://www.rfi.fr/hebdo/20151106-migrants-espagnebarcelone-vendeurs-ambulants-afrique-subsaharienne-creation-syndicat>, consulté le 1 novembre 2017. oros, 37, 2 | 2018 24 Barcelone face au
tourisme de masse : « tourismophobie » et vivre ensemble 111 Paquot, Thierry, 2016, « Tourisme urbain : à quand la décroissance? » Esprit, p. 86‐89. 112 Perraton, Charles et Maude Bonenfant, 2009, Vivre ensemble dans l’espace public, Québec, Presses de l’Université du Québec. 113 Regidora de Joventut de Barcelona, 1998. BCN Bona Nit [Barcelone bonne nuit], Barcelone, Ajuntament de Barcelona. 114 Ricoeur Paul, 1988, « La crise : un phénomène spécifiquement moderne? », Revue de théologie et de philosophie, no 120, p. 1‐19. 115 Rieucau, Jean, 2010, « Nature urbaine et urbanité dans la station touristique de Salou (Espagne), au travers de l’étude : d’un parc-promenade, d’un paseo, d’un parc urbain », EchoGéo, « Sur le vif », mis en ligne le 30 novembre 2010, < http:// echogeo.revues.org/12191>, consulté le 11 avril 2018. 116 Sanz Fernández, Ana, Rebeca Fernández Yunquera et Alejandro Rodríguez Sebastián, 2012, En la Red: Eurovegas y otras isla s [Sur Internet : Euro Vegas et zones franches], Madrid, <http://habitat.aq.upm.es/boletin/n51/nred.html>, consulté le 11 avril 2018. 117 Secchi, Bernardo, 1993, « Una urbanistica di spazi aperti » [Une vision urbanistique d’espace ouvert], Casabella, nos 597-598, p. 5‐8. 118 Sodupe, Miquel, 2007, « Un nouveau front de mer pour Barcelone : le projet BesósForum », Cahiers de l’IAURIF [Institut d’aménagement et d’urbanisme de la région d’Île-deFrance], no 146, p. 69‐76. 119 Sokoloff, Béatrice, 1999, Barcelone ou comment refaire une ville, Montréal, Presses de l’Université de Montréal. 120 Stock, Mathis, 2007, « European Cities: Towards a Recreational Turn? », Hagar. Studies in Culture, Polity and Identities, vol. 7, no 1, p. 115‐134. 121 Tatjer Mir, Mercè, 1973, La Barceloneta. Del siglo XVIII al Plan de la Ribera [La Barceloneta. Du XVIIIe siècle au Plan de la Ribera], thèse de doctorat en histoire de l’architecture, Barcelone, Los Libros de la Frontera. 122 Ter Minassian, Hovig, 2013, Changer Barcelone. Politiques publiques et gentrification dans le centre ancien (Ciutat Vella), Toulouse, Presses universitaires du Mirail. 123 Vallés Causada, Luis, 2009, « Guardia Civil y defensa de la propiedad intelectual » [La gendarmerie et la défense de la propriété intellectuelle], Colección de Estudios de Derecho Judicial, InDret, no 129, p. 189‐215. 124 Vlès, Vincent, 2011, « Entre redynamisation urbaine et banalisation des espaces : tensions et enjeux de l’urbanisme touristique », Mondes du tourisme, no 3, p. 14‐25. 125 Zmudzinska-Nowak, Magdalena, 2011, « The Question of Place Identity in View of the Globalization and Commercialization of Urban Space », dans Camilla Perrone, Gabriele Manella et Lorenzo Tripodi (dir.), Everyday Life in the Segmented City Research in Urban Sociology, vol. 11, Bingley, Emerald Group Publishing Limited, p. 169‐194. Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble
NOTES 1. Voir le film français L’Auberge espagnole, réalisé par Cédric Klapish (2002), comédie-drame, 122 min. Xavier, étudiant français, part à Barcelone grâce au programme Erasmus. Il se loge et se promène dans la Barceloneta. Les stéréotypes associés à la nationalité des étudiants et à l’image d’une ville méditerranéenne sont au rendez-vous à travers les rencontres estudiantines dans une ambiance internationale et de fêtes de quartiers populaires. 2. À ce titre, la capitale catalane a adopté une stratégie qui lui a permis de faire inscrire au patrimoine mondial de l’UNESCO neuf édifices, lui conférant le record mondial en milieu urbain : la Pedrera, le parc Güell, le palais Güell, la Sagrada Familia, la Casa Batlló, la Casa Vicens, la crypte de la colonie Güell, le Palais de la musique catalane et l’Hôpital de la Santa Creu y Sant Pau. 3. Toutes les citations dont la source est en anglais, en espagnol ou en catalan sont des traductions libres de l’auteur de cet article. 4. Voir le site Internet officiel de l’Office de tourisme de Barcelone présentant la shopping line, 2018 : <http://www.barcelonaturisme.com/wv3/fr/page/1998/barcelona-shopping-line.html>, consulté le 11 avril 2018
. 5. On peut identifier dix espaces de loisirs concentrant un grand nombre de touristes : le centreville comportant El Raval, l’ancien Barrio Chino, le Barrio Gótico, El Born et la grande artère touristique La Rambla ; le Passeig de Gracià ; une partie de la Diagonal (Stade du Barça) ; Montjuich ; le quartier de la Sagrada Familia ; le quartier du parc Güell ; les huit nouvelles plages créées depuis 1992 (le front maritime) ; le port Vell, la Barceloneta et le parc de la Citadelle ; le Port olympique ; et, dans une moindre mesure, le port de plaisance et le parc du Fòrum (une partie du district de Poblenou). 6. Voir <https://uia.org/sites/uia.org/files/misc_pdfs/hquia/uia_hap_30.pdf>, UIA, International Meetings Statistics Report 2016, consulté le 11 avril 2018. 7. Classement Euromonitor, 2012, p. 1, < https://blog.euromonitor.com/2012/01/euromonitorinternationals-top-city-destinations-ranking1.html>, p. 1 ; et <https:// newsroom.mastercard.com/wp-content/uploads/2015/06/MasterCard-GDCI-2015-FinalReport1.pdf>, p. 8 ; sites consultés le 11 avril 2018. 8. Vicens Forner, photographe et journaliste de l’un des organes de presse les plus lus en Catalogne et en Espagne, El Periódico, natif de la Barceloneta, faisant son trajet quotidien pour rentrer chez lui et observant ces jeunes madrilènes, rappelle, dans Mas Periódico (supplément dominical du journal) du 31 août 2014, que son quartier connaît une situation bien difficile face au tourisme de masse et d’ivresse qui change les codes et les modes de vie des habitants. Plus de trois générations dans sa famille se sont succédé dans le quartier de pêcheurs, la dernière en date regrettant la pression touristique et la perte d’âme de son quartier typique
< https:// www.elperiodico.com/es/barcelona/20140829/no-estamos-en-venta-3486288>, « No estamos en venda – Nous ne sommes pas en vente », consulté le 11 septembre 2014. 9. Site de l’Association des habitants de la Barceloneta : <https://ca-es.facebook.com/pages/ Associaci%C3%B3-de-Ve%C3%AFns-de-la-Barceloneta/244787605579298>, consulté le 11 septembre 2014. 10. Les incivilités les plus répandues et rapportées par les habitants sont : uriner dans la rue – déféquer derrière une poubelle – vomir en groupe sur une petite place publique – faire du bruit en chantant, dansant et criant – se bousculer et s’injurier entre soi et envers des habitants – rapports sexuels dans les coursives, halls d’escalier, sur les balcons, sur les toits, fenêtre ros, 37, Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble ouverte – musique forte, fête bruyante d’une quinzaine d’étudiants dans un appartement de 15 mètres carrés – consommation de drogue, trafic de drogue – exhibitionnisme – nudisme dans un quartier populaire familial – vulgarité des tenues de plage et de rue, par exemple torse nu – tituber en raison d’abus d’alcool – abus sexuel – poubelle brûlée, hurlement dans la nuit, bruit de dérapage de voiture – rixe, intervention de la police, intervention des ambulances – fêtes improvisées et commerciales – accumulation de déchets sur les plages (cigarettes, bières, cannettes de boissons énergisantes) – dormir en groupe dans une voiture – rouler à toute vitesse en skate (planche à roulettes) ou en vélo sur de petits trottoirs – et enfin groupes d’étudiants espagnols, d’adultes (souvent des Anglo-Saxons) avinés se dirigeant vers le périphérique littoral, la Nova Icaria et le Casino (secteur des prostitués), tout en se passant des boîtes de préservatifs devant les enfants du quartier. 11. « L’acquéreur prend sa décision dans les 90 secondes de la visite. De cette idée est né le home staging. Il s’agit d’attirer l’attention sur les points forts du bien afin de le vendre rapidement et au meilleur prix possible. La démarche semble rentable... » Voir <http://www.leparticulier.fr/jcms/ c_86678/le-home-staging-fait-il-vendre>, Le Particulier Immo, n o 260, article de Françoise Juery, 2010, consulté le 11 avril 2018. 12. « La Barceloneta cultive l’hédonisme comme philosophie avec sa plage et ses plaisirs. Le jour, on déambule le long des trottoirs en vélo ou en skateboard. Avant de se dorer sur le sable. La nuit, la fête s’invite dans ses restaurants de fruits de mer et ses bars accueillants. Le calme est ailleurs. Ici on adopte un rythme de vie tout catalan. Et on imite ses habitants qui y ont élu domicile depuis des générations. » <https://www.airbnb.fr/locations/barcelona/la-barceloneta>, consulté le 11 novembre 2016. 13. « El turismo ha dejado de ser un maná incontestable. Si antaño la población autóctona recibía con los brazos abiertos a los visitantes al inicio de la temporada, ahora temen su llegada. De Palma de Mallorca a Barcelona, los turistas se han convertido en las molestas especies invasoras ‘culpables’ de la masificación y los precios abusivos. Ha nacido la turismofobia. » [ Tourismophobie, villes en location – Le tourisme a cessé d’être une manne indiscutable. Si auparavant la population autochtone a accueilli les visiteurs à bras ouverts au début de la saison estivale, maintenant ils craignent leur arrivée. De Palma de Majorque à Barcelone, les touristes sont devenus une espèce envahissante agaçante « coupable » de surpopulation-saturation et de prix abusifs. La tourismophobie est née.] Barbería, José Luis, 2017, « Turismofobia, ciudades de alquiler » [Tourismophobie, villes en location], El País Semanal, mis en ligne le 6 août : <https:// elpais.com/elpais/2017/08/06/eps/1501970746_150197.html>, consulté le 11 avril 2018. 14. La vidéo du jeudi 27 juillet 2017 fait à nouveau le tour du monde, montrant les agitateurs en train de crever les pneus et d’inscrire leur slogan sur le bus touristique proche du camp Nou. La vidéo a été retirée de YouTube à cause d’une action en justice pour dégradation ; cette action en justice arrange aussi la mairie qui veut à tout prix lutter contre ces actes et surtout contre la possibilité de voir augmenter les attaques contre des touristes. Il subsiste un reportage de TV3, chaîne locale, montrant quelques images de l’incident : <https://www.youtube.com/watch? v=Yk68J3_oOSw&lc=UgzKkKGxez5hniMVWJl4AaABAg> (ancienne adresse où ’on pouvait voir la vidéo, 2017). Pour les activités status/893462967320285185>. d’Endavant, 2017 : <https://twitter.com/endavantcv/ Pour le reportage de la chaîne locale TV3, 2017 : <http://www.ccma.cat/tv3/alacarta/ telenoticies-vespre/atac-vandalic-contra-un-bus-turistic-de-barcelona/video/5681342/>. consultés le 11 novembre 2017. Sites 15. Pour les propos du premier ministre
Rajo
y, 2017 : <http://beteve.cat/
rajoy
-
atacs-turisme
-
notractar-puntades-peu
/>, consulté le 11 novembre 2017. 16. Iñárritu, Alejandro Gonzáles, réalisateur, 2010, Biutiful, 147 min. (Mexique, Espagne). Téoros, 37, 2 | 2018 Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble 17. Site Internet du parc Güell, 2017, <https://www.parkguell.cat/fr/park-gueell/>, consulté le 11 novembre 2017. 18. Voir : <http://ajuntament.barcelona.cat/turisme/es/plan-estrategico/documentacion>, consulté le 11 avril 2018. On trouvera sur ce site le calendrier et
les
objectifs de la réunion
des
experts du 20 juillet 2015 ainsi que la « Estratègia de mobilitat turística de Barelona » [Stratégie de mobilité touristique à Barcelone] de novembre 2017. 19. Voir <http://visitbarcelona.com/imgfiles/web/pdf/bst/ Barcelona_Turisme_Sostenible_17_fr.pdf> ; et <http://www.barcelonaturisme.com/wv3/fr/ page/1984/durabilite-environmentale.html>, sites consultés le 11 avril 2018. 20. <http://www.cruisesnews.es/Portal/?p=7992>, consulté le 11 avril 2018. 21. <https://www.youtube.com/watch?v=kdXcFChRpmI>, consulté le 1er août 2016. RÉSUMÉS
Le tourisme devient une source de richesse pour les villes méditerranéennes qui profitent de la mondialisation. Pourtant, le processus de mise en scène et en récit de ces métropoles transforme le paysage urbain et les usages de l’espace public. D’un côté, la stratégie touristique vise à proposer une image de qualité de la ville auprès des touristes internationaux, renforçant son attractivité et nécessitant la création de nouveaux espaces de loisirs ; de l’autre côté, la réussite de cette entreprise de communication et de marketing amène une situation de tension causée par une surfréquentation de visiteurs et une concentration de problèmes sociaux que le nouveau terme de tourismophobie synthétise. La « révolte » du quartier de la Barceloneta en août 2014 et d’autres quartiers de la capitale catalane entre 2014 et 2017 atteste une situation de crise et de transition urbaine que nous analysons à partir d’une enquête de terrain originale qui repose sur l’étude des pancartes revendicatrices accrochées aux balcons des habitants, des entretiens avec des locaux et un recensement statistique auprès de l’Office de tourisme de Barcelone. Nos résultats mettent en avant trois éléments pour expliquer les tensions sociales issues de la confrontation de deux modes de vie, sédentaire et nomade : 1) Barcelone et ses districts de front de mer sont victimes d’un succès et d’une attractivité touristique exponentielle, mais aussi d’une superposition concomitante de processus d’attraction engendrant des flux continus de tourisme d’affaires et d’agrément, à savoir : l’héliotropisme, l’haliotropisme et une métropolisation renforcée ; 2) le tourisme résidentiel et l’innovation numérique impliquent une redéfinition importante de l’offre immobilière locative, bouleversant le corps social du centre-ville et de quartiers populaires qui ont profité parallè d’une intervention urbanistique de qualité dans les années 1990 à la suite des Jeux olympiques (JO) ; 3) une crise urbaine s’observe en relation avec l’activité touristique et ses conséquences, engendrant la volonté de trouver une nouvelle gouvernance touristique, mais nous identifions un manque de vision stratégique et des contradictions idéologiques dans la capacité à arriver à une coprésence harmonieuse touristes– habitants. Barcelona and Mass Tourism: Tourismophobia and Coexistence – Tourism is becoming a source of wealth for Mediterranean cities that benefit from globalization. Yet the staging and storytelling process of these cities transforms the urban landscape and the uses of public space. On the one hand, the tourism strategy aims to provide a quality image of the city with international tourists, promoting its attractiveness and involving the creation of new recreational areas; on the other ros, 37, Barcelone face au tourisme de masse : « tourismophobie » et vivre ensemble hand, the success of this communication and marketing process creates a tensed situation in old port districts, sometimes neglected due to visitor overcrowding and the concentration of social problems, that the new term “tourismophobia” sums up well. The Barceloneta “revolt” in August 2014 and in other areas of the Catalan capital from 2014 to 2017 testifies to a crisis and urban transition that we analyze from an original field survey based on the study of the demands set out on placards hanging from the inhabitants’ balconies, interviews, and a census from the Barcelona Tourist Office. Our results highlight three elements explaining social tensions from the confrontation of two lifestyles, sedentary and nomadic: (1) Barcelona and its waterfront districts are victims of success and exponential tourist attraction, but also concomitant superposition of the attraction process generating continuous streams of business and leisure tourism, namely: heliotropism, heliotropism, and increased metropolization; (2) residential tourism and digital innovation involve a significant redefinition of the rental properties, upsetting the social core of the town centre and popular neighbourhoods who simultaneously took advantage of a quality urban operation in 1990; (3) an urban crisis related to tourism and its consequences can be observed, and it engenders the desire to find a new tourism governance, but we identify a lack of strategic planning and ideological contradictions in the ability to arrive to a peaceful co-presence tourists–inhabitants. INDEX Mots-clés : tourisme de masse, tourisme urbain, tourismophobie, front de mer, Barcelone Keywords : mass tourism, urban tourism, tourismophobia, waterfront, Barcelona.
AUTEUR PATRICE BALLESTER Professeur associé, Ph.D. qualifié CNU (Centre national des universités), Enseignant-chercheur en géographie et marketing du tourisme, Grand-Sud Tourism School, École supérieure de tourisme (France, Toulouse) ; [email protected] Téoros, 37, 2 | 2018 29.
| 34,184
|
45f709d78d788bad6d663bbbdbd547bb_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,011
|
Caractérisation des stratégies de gestion pour la modélisation de la vulnérabilité des exploitations agricoles aux inondations : Lier les dimensions spatiale, organisationnelle et temporelle d'un système complexe. 3èmes journées de recherches en sciences sociales INRA SFER CIRAD, Dec 2009, Montpellier, France. 17 p. ⟨hal-00575822⟩
|
None
|
French
|
Spoken
| 7,070
| 10,875
|
Caractérisation des stratégies de gestion pour la modélisation de la vulnérabilité des exploitations agricoles aux inondations : Lier les dimensions spatiale, organisationnelle et temporelle d’un système complexe
Pauline Bremond, F C. Blanc
HAL is a multi-disciplinary open access archive for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés. Caractérisation des stratégies de gestion pour la modélisation de la vulnérabilité des exploitations agricoles aux inondations : Lier les dimensions spatiale, organisationnelle et temporelle d’un système complexe Brémond Pauline*, Grelot Frédéric*, Abrami Géraldine*,
Blanc Céline* UMR G-EAU, Cemagref 361 rue J.F. Breton BA 5095 34196, Montpellier, France * [email protected] 3èmes journées de recherches en sciences sociales INRA SFER CIRAD 09, 10 & 11 décembre 2009 –Montpellier, France 1
umé
Les politiques publiques de gestion des inondations s'orientent vers la restauration des champs d'expansion de crue et de réduction de la vulnérabilité, qui auront un impact important sur les exploitations agricoles. L'évaluation des effets de ces politiques sur les exploitations agricoles n'est pas envisageable avec les méthodologies actuelles et le retour d'expérience quasiment inexistant. Il était donc nécessaire de développer un modèle de simulation des dommages directs et induits en prenant en compte la dimension systémique de l’exploitation agricole. Pour cela, nous proposons un modèle conceptuel de la vulnérabilité à l'échelle de l'exploitation agricole et montrons comment il nous a permis de mettre en évidence l’importance des stratégies de gestion post-inondation pour la modélisation des dommages. Nous présentons ensuite les résultats des enquêtes réalisées sur les exploitations arboricoles de la zone aval du Rhône pour la caractérisation de ces stratégies. Enfin, nous montrons comment nous avons intégré dans le modèle de simulation des dommages, les données recueillies par enquêtes. Les premiers résultats de simulation des dommages confirment l’importance de prendre en compte les effets induits de l’inondation sur le système « exploitation agricole ». En perspective, l’utilisation du modèle de simulation des dommage dans le cadre d'une évaluation économique des politiques de réduction de la vulnérabilité des exploitations agricoles sur la zone aval du Rhône est discutée. Mots clés Modélisation systémique UML, stratégie, exploitation agricole, inondation, vulnérabilité, 2
Introduction 1.1 Nouvelles politiques de gestion des inondations, nouveaux défis pour l’évaluation économique
Les dernières inondations en Europe, notamment sur le Rhône (850 M€ de dommages en 2003(Siee et al., 2003) ont mis en évidence les limites d'une prévention des inondations reposant sur la protection des enjeux par des digues : augmentation des dommages en cas de rupture de digues, aggravation des phénomènes en aval. Elles ont contribué à l'émergence de nouvelles orientations de gestion des inondations, qui ont des impacts importants sur les zones agricoles. D'une part, les politiques de gestion de l'aléa s'orientent vers la restauration des zones d'expansion de crue. Le principe est d'identifier des zones actuellement protégées, peu vulnérables, typiquement des zones agricoles, d'accroître leur exposition pour limiter les débordements dans les zones plus vulnérables, typiquement urbaines. D'autre part, les mesures de réduction de la vulnérabilité des enjeux en zone inondable, promues et subventionnées par l'État, peuvent être particulièrement adaptées au secteur agricole. Dans ce cas, elles visent à l’adaptation et donc au maintien de l’activité agricole en zone inondable, en faisant l'économie de projets de réduction de l'aléa. En cas de restauration d’une zone d'expansion de crue, le financement de ces mesures peut être envisagé comme une compensation par les gestionnaires de l'augmentation de l'exposition des activités agricoles présentes. Ces nouvelles orientations sont particulièrement présentes sur le bassin versant du Rhône. Le volet inondation du Plan Rhône (Feder, 2007), document cadre des interventions à venir pour la période 2007-2013, prévoit des actions de restauration des champs d'expansion des crues, majoritairement agricoles ainsi que la réduction de la vulnérabilité des activités économiques avec le soutien financier de l'Union Européenne (7,5 M€). Une phase dite de diagnostic a été menée sur le secteur agricole des cinq départements de la partie aval du Rhône (Ardèche, Bouches-du-Rhône, Drôme, Gard et Vaucluse). Elle a mis en évidence près de 3 000 exploitations potentiellement concernées par le risque d'inondation et répertorié les mesures de réduction de la vulnérabilité envisageables. Le Plan Rhône a prévu une phase de sensibilisation des agriculteurs avant le lancement de plan de financement de mesures de réduction de la vulnérabilité à l'échelle des exploitations. Ces mesures se déclinent en cinq groupes : les mesures de gestion de crise (plan d'urgence, plan de remise en route...) ; les mesures organisationnelles de l'exploitation (gestion des stocks...) ; les mesures physiques dans les bâtiments (surélévation de certaines parties...) ; les mesures physiques sur les parcelles (adaptation des cultures en fonction de leur sensibilité aux inondations) ; les mesures financières (assurance). L'application de ces mesures est supposée réduire deux types d’impacts : les impacts directs, qui correspondent aux dommages physiques directement provoqués par l'inondation, mais également les impacts induits, qui correspondent aux perturbations de l’activité. Par exemple, la surélévation ou l'évacuation du matériel doit certes éviter son endommagement, donc sa réparation ou son rachat. Mais cela permet également d’assurer son utilisation pour poursuivre les tâches culturales sur les parcelles non inond , donc d'éviter des pertes de rendement et enfin sa mobilisation pour des travaux de remise en état de l'exploitation, donc de limiter la durée de perturbation de l’inondation. La mise en place de ces nouvelles orientations de gestion des inondations se fait dans un contexte de sensibilisation accrue par les financeurs (État, Régions, Départements notamment) à l'efficience de l'utilisation des fonds publics. Or, jusqu’à présent, relativement peu d’évaluation économique des projets de gestion d’inondation ont été réalisées en France (Cepri, 2008). 3 Quand elles existent, ces évaluations portent sur des politiques de gestion de l’aléa (construction de digues, de barrages) et non sur la réduction de la vulnérabilité. Or, les politiques de réduction de la vulnérabilité nécessitent une compréhension fine des enjeux exposés, en tant que système, dont il est très souvent fait l’économie lors de l’évaluation des politiques de gestion de l’aléa. Bien que le secteur agricole soit souvent concerné par le risque d’inondation, il n’a suscité le développement que de peu de modèles d’endommagement en Europe (Forster et al., 2008). Les modèles utilisées aux États-Unis (Mcdonald, 1970; Lacewell et al., 1972), en Europe (Messner et al., 2007), et particulièrement en France (Devaux-Ros, 2000; Siee et al., 2003), repose sur une conception commune de l’endommagement du secteur agricole très mal adaptée à l'évaluation de la réduction de la vulnérabilité. En effet, ils reposent sur la monétarisation d'une perte de rendement directe due à l'inondation à l'échelle de la parcelle. Comme les mesures de réduction de la vulnérabilité s'appliquent à l'échelle de l'exploitation agricole et portent principalement sur l'amélioration de la capacité organisationnelle pendant et après l'inondation, il s'avère nécessaire de prendre en compte les différents fa cteurs de production de l'exploitation, leur répartition spatiale et les interactions qu'ils ont entre eux. L’évaluation de la propagation des dommages dans le temps nécessite de considérer la dimension temporelle du système. Dès lors, le cadre d'évaluation à l'échelle des exploitations agricoles prenant en compte leur organisation systémique s’impose. Nous finissons ce tour d’horizon en précisant que très peu de retour d’expérience sur l’efficacité des mesures de réduction de la vulnérabilité existent, ce constat étant particulièrement avéré concernant le secteur agricole. Les rares d'exploitations agricoles ayant mis en place des mesures de réduction de la vulnérabilité l’ont fait de façon trop récente pour qu’une étude de leur efficacité puisse être réalisée.
1.2 Question de recherche et positionnement
Notre problématique de recherche est de développer une méthode d’évaluation économique de la vulnérabilité des exploitations agricoles permettant d’évaluer les politiques de réduction de la vulnérabilité. Cet article s’intègre dans une démarche de recherche au cours de laquelle nous avons montré qualitativement que considérer les dommages à la parcelle n’était pas représentatif des dommages à l’exploitation agricole car les effets induits n’étaient pas pris en compte (Bremond et al., 2008) et qu’il était nécessaire pour évaluer les projets de faire ce changement d’échelle (Bremond et al., 2009). Nous avons ensuite élaboré un modèle conceptuel UML permettant de lier les dimensions spatiale, temporelle et organisationnelle de la vulnérabilité des exploitations agricoles (Bremond et al., 2009). Le modèle conceptuel nous a servi de cadre pour le recueil de données en vue de l’implémentation d’un modèle de calcul des dommages aux exploitations agricoles qui a été présenté lors d’un workshop organisé par l’European Association of Agricultural Economics (Bremond et al., 2009). Nous avons recueilli des données structurelles et technico-économiques sur les exploitations, des données d’endommagement des composantes ainsi que des données sur les stratégies mises en œuvre par les exploitants suite à l’inondation. Cet article a pour f de montrer l’importance du recueil et de la traduction des stratégies des exploitations suite à une inondation pour la modélisation économique des dommages. 2 Modélisation de la vulnérabilité des exploitations agricoles par une approche systémique 2.1 Vulnérabilité, dommages des concepts appelant à modéliser les stratégies
Dans notre conception, la vulnérabilité d’un système à un événement correspond à une fonction caractéristique du système permettant d’associer des conséquences attendues à des manifestations d’un événement. A l’instar de Turner et al (Turner et al., 2003), nous proposons de caractériser la vulnérabilité d’un système autour de trois grandeurs : 4 l’exposition, la sensibilité et la résilience. L’exposition correspond à la caractérisation des événements susceptibles de toucher le système. La sensibilité correspond à la propension du système à être affecté par l’événement. Cette affectation comprend à la fois les dommages réparables et irréparables ainsi que les altérations de fonctionnement. La résilience correspond à sa capacité à revenir à un état « normal » suite à sa perturbation. Cette capacité comprend également une dimension cinétique. Les dommages monétarisés correspondent alors à un indicateur particulier de l’intensité des conséquences. Ils reposent sur la quantification monétaire des efforts nécessaires pour un retour à la « normale », en fait un état final qui est souvent différent de l’état initial, des éventuelles pertes de fonctionnalités entre l’état initial et l’état final, ainsi que des pertes non remplaçables. Les dommages sont a priori positivement corrélés à l’exposition et à la sensibilité, négativement à la résilience (Figure 1). Dans cette communication, nous considérons comme système les exploitations agricoles, comme événement les inondations. L’exposition correspond alors à la caractérisation des inondations, à la fois en terme d’intensité (hauteur de submersion, duré, vitesse), mais également en terme de caractérisation spatio-temporelle (répartition spatiale et saison d’occurrence). La sensibilité du système correspond à la caractérisation des composantes de l’exploitation agricole pouvant être endommagées ou inutilisables du fait d’une submersion, donc à l’inventaire localisé des éléments physiques ainsi qu’à leur propre sensibilité. La résilience correspond à la capacité de remise en état de fonctionnement de l’exploitation et repose principalement sur l’organisation du système. Cette dernière caractéristique fait directement intervenir un premier besoin de définition de « stratégie ». En effet, la remise en état est totalement liée aux choix suivis par l’exploitant pour sortir de l’état de perturbation suite aux inondations. L’identification de ces stratégies est également nécessaire à la caractérisation des dommages monétarisés en permettant d’expliciter les effets induits sur l’exploitation. Figure 1 : représentation des liens entre aléa, vulnérabilité et dommages
2.2 Modélisation systémique des exploitations agricoles
Nous avons choisi de faire reposer la conceptualisation de notre système « exploitation agricole » sur l’approche de modélisation systémique des exploitations, principalement développée par l’INRA SAD dans les années 1980 (Brossier et al., 1990). Ce cadre théorique nous permet de représenter l’exploitation agricole comme un système complexe composé de facteurs de production physiques dont l’interaction est organisée par une entité décisionnelle et qui évolue dans le temps (dynamique). Ainsi, l’endommagement du système correspond d’une part à l’endommagement de ses facteurs physiques mais aussi à sa désorganisation qui a une certaine durée dans le temps. Nous précisons ici quatre concepts issus de cette littérature particulièrement important pour notre démarche : le système de production, l’itinéraire technique, l’organisation du travail et le mode de gestion et de décision. Le système de production a été défini par Reboul (1976) comme un « mode de combinaison entre terre, forces et moyens de travail à des fins de production végétale et/ou animale ». On trouve ici la notion de collection de composantes physiques (parcelles, matériel...) mises en interaction par une organisation des tâches de production. Dès lors, l’itinéraire technique, défini par Sébillote en 1978 (in Brossier et al., 1990, p.23) comme « une suite logique et ordonnée de techniques culturales appliquées à une espèce végétale cultivée », nous permet de définir la série de tâches devant être réalisées. Cela nous 5 permet de croiser les temporalités de l’inondation avec celle de l’exploitation et donc d’identifier les perturbations sur la réalisation de ces tâches. Le troisième concept sur lequel repose notre approche, très lié au précédent, est l’organisation du travail sur l’exploitation agricole et de la possibilité de simulation qui a été développée par Attonaty et al (1990) avec le modèle OTELO. La simulation de l’organisation du travail repose sur l’établissement de calendrier de travail journalier en lien avec les itinéraires techniques des productions et de règles de gestion. Ces règles de décision ont été formalisées par des agronomes sur la base d’enquêtes et de l’observation des pratiques des agriculteurs (Darré et al., 2004). Elle a principalement été utilisé pour l’appui à la décision des agriculteurs céréaliers (Papy et al., 1988). Notre modèle n’a pas vocation à modéliser finement l’organisation du travail en temps normal et nous nous sommes concentrés sur les stratégies mises en œuvre par les exploitants suite à l’inondation. Pour comprendre ces stratégies, il est nécessaire d’introduire le concept de décision. A l’instar de Sébillote et Soler (1990), nous présupposons en introduisant le concept de décision que l’agriculteur dispose d’une marge de liberté et que cette décision résulte d’un caractère intentionnel. Deux dimensions de ce concept sont importantes à appréhender pour la modélisation : la rationalité et la dimension temporelle. En économie, cette notion de rationalité est traduite par la recherche de l’utilité maximale qui est souvent réduite à une maximisation du profit de l’exploitation (Brossier et al., 1990). Faire cette hypothèse de rationalité nous aurait conduits à définir a priori différentes stratégies et à déterminer en optimisant, ici en minimisant le montant de dommages, quelle stratégie devait être conservée. Cela s’avérait inadéquat pour deux raisons : premièrement, nous étions dans l’incapacité de définir par nous-mêmes les stratégies ; deuxièmement, nous considérions que nous ne pouvions pas présupposer que le retour à l’état normal était le seul déterminant de la décision. Ainsi, nous nous retrouvons plutôt dans le cadre d’une rationalité limitée, telle que définie par March et Simon (1964) (in Brossier et al., 1990) et reposant sur le fait que le choix des agents économiques ne se fait pas par une volonté d’optimisation mais plutôt d’adaptation à l’environnement. Cela revient à considérer que l’individu cherche à maximiser une fonction d’objectifs permettant d’obtenir une situation satisfaisante. La prise en compte de la dimension temporelle est également un élément structurant dans la prise de décision (Courbon, 1982; in Sébillote et al., 1990). Ainsi, nous avons séquencé les différentes phases de prise de décision selon les horizons temporels auxquels elles font références : décisions à cout, moyen ou long termes. Nous utilisons le concept de stratégie pour définir une série de décisions prises par l’entité décisionnelle (chef d’exploitation). Les stratégies mises en place suite à l’inondation sont appelées stratégies post-inondation. Par ailleurs, la construction du modèle conceptuel de vulnérabilité des exploitations agricoles repose sur la mise en forme des dires d'experts et de la littérature grise existant sur le sujet, en particulier, développée par le Plan Loire (Bauduceau, 2001; Barbut et al., 2004; Bauduceau, 2004). 2.3 Théorie des capitaux disponibles en économie du développement
Nous avons également mobilisé le cadre théorique développé en économie du développement pour analyser la vulnérabilité des systèmes ruraux (Gondard-Delcroix et al., 2004). Cette littérature considère les foyers ruraux comme des systèmes dotés de différentes formes de capitaux dont les combinaisons conditionnent la vulnérabilité. Nous avons donc adopté la dénomination de ces capitaux en les adaptant au système « exploitation agricole » telle que décrite ci-après : - Les capitaux physiques (matériel, stocks, parcelles, matériel végétal pérenne) - Les capitaux financiers et monétaires (prêt, épargne) 6 - Le capital humain (main d’œuvre) - Le capital social (entraide, filières). Dans cet article, nous présentons premièrement notre modèle conceptuel de la vulnérabilité face aux inondations à l'échelle de l'exploitation agricole, développé en UML. Nous présentons ensuite les résultats des enquêtes menées sur les stratégies post-inondation des exploitations agricoles et montrons comment nous les avons implémenté dans le modèle économique de simulation des dommages à l’échelle de l’exploitation agricole.
3 Proposition d’un modèle conceptuel de vulnérabilité des exploitations agricoles 3.1.1 Choix du langage du modèle conceptuel : Unified Modelling Language
La complexité pressentie en termes d'intrication des dimensions spatiales, organisationnelles et temporelles des exploitations, nous a conduits à une approche de modélisation visant à la mise à plat des hypothèses nécessaires et à l'articulation des connaissances mobilisables. UML (Unified Modelling Language) est un langage semi-formel aujourd'hui standard permettant d'exprimer ou d'élaborer des modèles orientés objet, indépendamment de tout langage de programmation. Parce qu il a été conçu pour représenter un système informatique à travers la description de ses entités, de leurs activités et de leurs interactions, UML s'est révélé un support adapté à la conceptualisation de modèles systémiques (Roux-Rouquié et al., 2004). 3.2 Structure générale du modèle
La Figure 2 représente les dimensions spatiales et structurelles de l’exploitation agricole. Elle y est décrite comme l’agencement spatial de composantes physiques que sont : - les parcelles comprenant le sol, les cultures pérennes et la production en cours, - les bâtiments contenant le matériel et les stocks (intrants, récolte, produits finis). La Figure 3 représente la dimension organisationnelle de l’exploitation agricole. Chaque production peut être reliée à un itinéraire technique qui correspond à une série de tâches devant être réalisées par l’exploitant définie par un temps de travail et une liste de matériel nécessaire. Figure 3 : représentation organisationnelle de l'exploitation agricole Figure 2 : représentation structurelle de l'exploitation agricole (diagramme de classe) 7
3.3 Modélisation des dommages sur l’exploitation agricole 3.3.1 Cadre général pour l’analyse des effets de l’inondation sur l’exploitation
Légende : Effets sur les capitaux physiques Effets sur l’organisation du travail
Figure 4 : effets de l'inondation sur l'exploitation agricole (structure et fonctionnement)
Un scénario d’inondation est défini avec plusieurs paramètres (hauteur, vitesse, durée, période d’occurrence). La Figure 4 montre que les effets de l’inondation sur l’exploitation agricole peuvent être classés selon deux catégories : les effets sur les capitaux physiques et les effets sur l’organisation du travail. Premièrement, les capitaux physiques de l’exploitation (production, matériel, stocks, cultures pérennes, sol) vont subir un endommagement temporaire ou définitif en fonction de leurs caractéristiques intrinsèques. Excepté pour la production qui sera détruite, la détérioration implique des actions de remise en état que nous avons nommés « Tache_Inondation » et qui peuvent être associées à un coût. Le modèle spécifie alors quelles tâches doivent être réalisées et les contraintes induites en termes de main d’œuvre et de matériel. Nous distinguons les tâches liées à l’itinéraire technique de la culture en cours (Tache_Production) et les tâches de remise en état suite à l’inondation (Tache_Inondation). Chaque tâche est associée à un temps de travail et une liste de matériel et d’intrant nécessaires à sa réalisation. Nous verrons dans le paragraphe 3.4 que les stratégies mise en place par les exploitants pour prioriser la réalisation de ces tâches sont complexes et résultent du croisement des temporalités l’inondation et de l’exploitation agricole. 3.3.2 Modélisation des effets sur les capitaux physiques
Lors d'une inondation (définie par un scénario décrit dans la section précédente), chaque élément spatial calcule sa hauteur d'eau et envoie l'information aux capitaux physiques qui y sont localisés (matériel, stock, production). Ils peuvent alors calculer de quelle manière leur état est altéré. Pour cela, nous avons défini les différents états envisageables de chaque capital physique. A titre d'exemple, la classe « matériel » peut adopter cinq états : repos, utilisé, endommagé, inaccessible ou détruit, les trois derniers correspondant à un état de crise. La construction de diagrammes d'états permet de clarifier les hypothèses et contraintes de passage entre des états normaux et altérés. L'exemple des transitions d'état de la classe « matériel » est donné Figure 5. Figure 5 : Transition d'état de la classe « matériel » (diagramme d'état) 8
3.4 Dynamique globale et stratégies de gestion
La représentation de la dimension temporelle de l’impact de l’inondation sur l’exploitation agricole fait intervenir différentes temporalités. Comme l’indique la Figure 6, trois temporalités sont intriquées dans le phénomène étudié : celle de l’exploitation agricole, celle de l’inondation et celle de la gestion post-inondation. La temporalité de l’exploitation agricole résulte de l’itinéraire technique des productions et de l’organisation du travail. La temporalité de l’inondation est déterminée par le scénario d’inondation et conditionne le degré d’endommagement subi par les différentes composantes de l’exploitation en fonction de la période d’occurrence de l’inondation, de sa hauteur, de sa durée et de sa vitesse. La temporalité de la gestion post-inondation résulte de l’interaction entre les temporalités de l’inondation et de l’exploitation agricole. Nous appelons « stratégies » les modes de gestion adoptés sur la période suivant l’inondation afin de distinguer ces décisions du mode de gestion classique. La gestion post-inondation être séquencée en cinq périodes sur lesquelles une série de décisions doivent être prises par le chef d’exploitation.
Figure 6 : séquençages des périodes de l'inondation et stratégies de l'exploitant agricole associées
Ces cinq périodes sont : l'état de crise, l’état inondé qui correspond à la période entre le début de l'inondation et le début de la décrue (stratégie sur parcelles non submergées), l’état post-inondation correspondant à la période entre le début de la décrue et la fin du cycle de production en cours (stratégie annuelle sur parcelles endommagées et non endommagées), la péri entre la fin du cycle et le retour à un état d'équilibre (stratégie à long terme). Les décisions prises sur chacune de ces périodes font référence à des horizons temporels différents et donc à des objectifs différents. Par exemple, durant la période post inondation correspondant à la période entre le début de la décrue et la fin du cycle de production en cours, il s’agit principalement pour l’exploitant de prioriser les tâches de production et de remise en état sous des contraintes qui peuvent être l’accessibilité ou l’indisponibilité du fait de leur endommagement des facteurs de production (parcelles, matériel...) et de la main d’œuvre. Nous nous sommes dans un premier temps attachés à décrire les stratégies à court terme en décrivant les règles de hiérarchisation des tâches à réaliser ainsi que les règles d'arbitrage à mettre en œuvre quand les capitaux mobilisables par l'exploitation, notamment le capital humain, ne permettront pas d'effectuer les tâches nécessaires. Dans notre démarche, le mode de gestion en temps normal (sans inondation) n'a pas vocation à être modélisé et est défini par l’itinéraire technique. De plus, la modélisation de la gestion de crise au moment de l'alerte nécessiterait un pas de temps très fin que nous ne souhaitons pas développer dans un premier temps. Par contre, il est envisagé de définir des scénarios de gestion de crise qui permettraient une relocalisation des stocks et matériels au moment de l'alerte. Enquêtes sur les stratégies et modélisation des effets induits
Nous avons été sollicités par le Plan Rhône pour l’évaluation d’un programme de réduction de la vulnérabilité des exploitations agricoles de la zone Rhône aval. Un des préalables à cette évaluation est le développement d’une méthode d’évaluation des dommages à l’échelle de l’exploitation agricole. La section suivante a pour objectif de présenter les enquêtes réalisées sur la basse vallée du Rhône qui ont été utilisées dans notre modèle d’évaluation économique de la vulnérabilité des exploitations agricoles aux inondations. Nous montrons ensuite comment les stratégies post-inondation adoptées par les exploitants ont été intégrées et conditionnent la modélisation des dommages, en particulier, les effets induits sur l’exploitation agricole suite aux inondations.
4.1 Présentation de la zone d’étude et des enquêtes réalisées
La zone d’étude s’étend sur cinq départements du territoire aval du Rhône : le Gard, les Bouches du Rhône, le Vaucluse, la Drôme et l’Ardèche. Arbori
culture Figure 7 : Répartitions des sièges d'exploitations recensés dans l'enveloppe de la crue de Décembre 2003 sur le Rhône Maraichage Viticulture Céréales Prairie Elevage Figure 8 : Répartition (nombre) des exploitations recensées dans l'enveloppe de crue de Décembre 2003 par type de production
Une enquête réalisée par la mission « réduction de la vulnérabilité agricole en zone inondable » (Chambres D'agriculture Rhône Méditerranée, 2006) indique que près de 3 000 exploitations agricoles sont potentiellement concernées par le risque inondation sur cette zone (Figure 7). Les exploitations de la zone aval du Rhône peuvent être classées en cinq groupes selon leur orientation technico-économique : céréales, arboriculture, maraîchage, viticulture, élevage (principalement manade). Nous présentons ici les résultats d’enquêtes sur les stratégies post-inondation concernant les exploitations de type « arboriculture » qui sont les plus représentées en effectif (Figure 8), la pomme étant la culture la plus pratiquée. Nous avons réalisé au total quinze entretiens auprès d’experts et neuf entretiens auprès d’agriculteurs pour les différents types de productions pratiquées sur la zone d’étude. Nous avons fait l’hypothèse que les stratégies post-inondation des exploitants pouvaient être influencées par la période d’occurrence de l’inondation. Nous avons donc choisi trois périodes d’occurrence d’inondation contrastées : septembre, décembre et mai. Les deux premières périodes correspondent à des événements ayant eu lieu en 2002 et 2003. Nous avons également choisi d’étudier une crue en mai car la crue de référence sur le Rhône correspond à la crue de mai et juin 1856. 4.2 Résultats des enquêtes sur les stratégies post-inondation des exploitations agricoles : le cas d’une exploitation spécialisée en arboriculture
Nous ne présentons ici que les stratégies à court terme et n’aborderons pas les stratégies d’adaptation à plus long terme qui peuvent modifier la structure de l’exploitation (changement de cultures). Les stratégies post-inondation dépendent en premier lieu des dommages directs sur les cultures. Pour les exploitations spécialisées en arboriculture, il faut considérer les pertes de récolte et de matériel végétal (plantation pérenne). En Septembre, les pertes de récolte peuvent être comprises entre 0et 100% en fonction de la période de récolte. Globalement, Si la hauteur d’eau est inférieure à la hauteur des fruits, la récolte n’est pas endommagée. En Décembre, il n’y a pas de pertes de récolte. Une occurrence en Mai peut être catastrophique en fonction de la hauteur d’eau. L’endommagement du matériel végétal est variable suivant les espèces. Généralement, il est moins sensible en période de repos végétatif (décembre). S’il y a perte de matériel végétal, il faut arracher et replanter le verger, sachant que la commande des plants prendra un an. De plus, des pertes de récolte dues à cette replantation seront constatées sur plusieurs années. Suite à cet endommagement, les modes de gestion consistent en une priorisation des tâches de remise en état et de poursuite de l’itinéraire technique. Les données d’enquêtes nous ont permis d’établir le Tableau 1. Période de l’inondation Décembre 1. Réparation du matériel 2. Remise en état des parcelles et du matériel d’irrigation 3. Nettoyage des bâtiments 4. Poursuite des travaux sur les parcelles en particulier la taille qui doit être terminée fin Mars. Mai 1. Poursuite de l’itinéraire technique sur les parcelles non touchées 2. Remise en état des parcelles et du matériel d’irrigation 3. Poursuite de l’itinéraire technique sur les parcelles touchées si pertes < 50% 4. Nettoyage et réparation du matériel et des bâtiments 5. Récolte des fruits non vendables pour éviter pourrissement sur l’arbre
Tableau 1: synthèse des modes de gestion observés sur les exploitations de type arboriculture en fonction des périodes d'inondation Liste des tâches
Septembre 1. Récolte des fruits s’ils n’ont pas été endommagés 2. Réparation du matériel 3. Nettoyage des bâtiments 4. Remise en état des parcelles et du matériel d’irrigation 5. Poursuite des travaux sur les parcelles Globalement, si des parcelles ou si les cultures n’ont pas été endommagées, la priorité de l’exploitant va vers la poursuite de l’itinéraire technique. En pratique, la poursuite de l’itinéraire technique nécessite que l’exploitant dispose du matériel nécessaire pour la réalisation de la tâche. Nous verrons comment nous avons pu prendre en compte cette donnée dans la modélisation en estimant que l’exploitant fait appel à un prestataire de service s’il ne dispose pas du matériel nécessaire. La réparation du matériel constitue également une des priorités majeures de l’exploitant. Enfin, la remise en état des parcelles et du matériel d’irrigation constitue une étape prioritaire avant de pouvoir poursuivre tous travaux sur les parcelles qui ont été inondées. 4.3 Prise en compte des résultats dans la modélisation économique 4.3.1 Démarche générale de modélisation des effets induits de l’inondation sur l’exploitation
Sur la base des enquêtes réalisées, nous avons établi un algorithme pour le calcul des dommages dus aux inondations sur une exploitation agricole. Il se déroule selon les quatre étapes suivantes : 1. Un état des lieux des dommages de l’inondation est dressé sur les différentes composantes de l’exploitation et le calcul des dommages directs est réalisé 11 2. Un nouveau calendrier des tâches agricoles à effectuer sur les parcelles inondées est dressé ; le calendrier des tâches agricoles sur les parcelles non inondées est inchangé. Sur les parcelles inondées, le décalage de l’itinéraire technique est égal à la somme des : - Temps de submersion de l’inondation - Temps nécessaire à la remise en l’état de la parcelle 3. Un calendrier des réparations effectuées sur le matériel est dressé et un calendrier d’indisponibilité du matériel en fonction des délais de réparation ou de rachat est établi. Durant cette période d’indisponibilité, si le matériel en question doit être utilisé pour la réalisation d’une tâche, nous considérons que l’exploitant fera appel à un prestataire de services. 4. Lors de la poursuite de l’itinéraire technique (décalé ou non), si la main d’œuvre disponible sur l’exploitation est insuffisante, nous considérons que l’exploitant emploie de la main d’œuvre saisonnière. Nous avons ainsi établi une liste des effets induits sur l’exploitation agricole suite à l’inondation et défini un estimateur de cet effet (Tableau 2). Type d’effets Indisponibilité du matériel Indisponibilité de main d’œuvre Répercussions financières Cause Délais de réparation ou de rachat Estimation Réalisation de la tâche par un prestataire (surcoût) Embauche de main d’œuvre supplémentaire (surcoût) Temps de travail supérieur à la main d’œuvre disponible sur l’exploitation du fait du de la remise en état et du décalage du calendrier Perte de récolte et de stock de produits finis Endettement Augmentation des charges (prestation de service, Ressources personnelles main d’œuvre supplémentaire)
Tableau 2 :
effets induits identifiés
suite à l
'
inondation
4.3.2 Comparatif des résultats d’enquêtes et de l’algorithme de modélisation
Nous avons choisi dans un premier temps d’appliquer une stratégie post-inondation identique quelle que soit la période d’occurrence de l’inondation et avons donc retenu, d’après les enquêtes réalisées, une stratégie générique sur les trois périodes. Le Tableau 3 nous permet de comparer les résultats obtenus lors des enquêtes et la manière dont nous avons modélisé ces résultats pour le calcul des dommages dus aux inondations.
Ordre de priorité 1 2 3 4 Enquêtes Modélisation Poursuite de l’itinéraire technique sur parcelles non inondées Réparation du matériel Poursuite de l’itinéraire technique sur parcelles non inondées : Si le matériel indisponible, il est fait appel à un prestat
aire
de services. Remise en état des parcelles Poursuite de l’itinéraire technique sur les parcelles inondées Etat des lieux de l’endommagement sur les composantes de l’exploitation Etablissement du calendrier d’indisponibilité du matériel endommagé Temps de travail nécessaire pour la remise en état des parcelles Décalage de l’it
inér
aire technique en fonction du temps de travail nécessaire pour la remise en état des parcelles Ensuite, si le m
indisponible, il est fait appel à un prestataire de services et si la main d’œuvre est insuffisante, il est fait appel à de la main d’œuvre saisonnière. Tableau 3 : synthèse des résultats d'enquêtes sur les modes de gestion et pris en compte dans la modélisation 12 4.3.3 Résultats de la modélisation des dommages sur l’exploitation type spécialisée en arboriculture pour une inondation de Décembre
Les caractéristiques de l’exploitation type « arboriculture » retenue pour le calcul des dommages, présentées dans le Tableau 4, sont issues de donnée du RGA 2000 et des références technico économique de la Chambre d’Agriculture du Vaucluse (2005).
SAU* moyenne 8 * UTA** moyenne 2 Variété Royal Gala Rendement (kg/ha) 43 000 Prix (€/kg) 0.5 Produit brut (€) 20 300 Charges totales (€) 12 600 Marge brute (€) 7 700 Surface Agricole Utile source : RGA 2000 et (CA84, 2005) Unité de Travail Annuelle Tableau 4 : caractéristiques de l’exploitation type arboriculture fruit à pépin de moins de 15 ha
** Le calcul des dommages directs sur les composantes de l’exploitation pour une inondation en Décembre n’est pas détaillé ici mais est donné dans le Tableau 5.
Hauteur (cm) Récolte Sol Verger Bâtiments Matériel Stock d’intrant Total 0-20 0€ 14 000 € 0€ 600 € 200 € 0€ 14 800 € 20-50 0€ 14 000 € 0€ 600 € 5 000 € 5 000 € 24 600 € 50-100 0€ 36 000 € 0€ 1 000 € 29 000 € 10 000 € 76 000 € >100 0€ 15 000 € 41 000 € 1 300 € 70 000 € 10 000 € 137 300 € Tableau 5 : Montant des dommages directs d'une inondation en Décembre sur l'exploitation type spécialisée en arboriculture (100% des parcelles inondées)
Nous avons ensuite, sur la base de la démarche décrite précédemment, modélisé et évalué les effets induits de l’inondation sur l’exploitation type « arboriculture ». Aucun effet lié à l’indisponibilité de matériel n’est considéré en Décembre car la seule tâche à réaliser est la taille dont le matériel est disponible quelle que soit la hauteur d’eau d’inondation. Par contre, en termes d’organisation du travail, les effets induits par l’inondation de Décembre sur l’exploitation arboricole sont importants. En effet, les tâches de remise en état des parcelles sont réalisées avant la reprise des tâches prévues dans l’itinéraire technique. Nous pouvons observer sur la Figure 9 que durant les mois de Janvier et de Février le temps de travail nécessaire est supérieur à la main d’œuvre disponible sur l’exploitation. Nous avons défini deux niveaux de travail pour les permanents sur l’exploitation. En situation normale, ils travaillent chacun 8h par jour et 6 jours par semaine. En situation de crise correspondant aux deux mois suivant l’inondation, nous considérons que l’exploitant et le salarié peuvent travailler 8h par jour et 7 jours par semaine. Cependant nous constatons que malgré cela, la charge de travail reste supérieure à la main d’œuvre disponible. Cela implique que l’exploitant devra employer de la main d’œuvre ou que de la main d’œuvre issue de l’entraide a pu être mobilisée. Ce résultat avait été identifié lors de nos enquêtes. En effet, les exploitants nous avaient fait remarquer que les effets d’une inondation en Décembre étaient souvent minimisés et qu’une contrainte sur la disponibilité de la main d’œuvre pouvait exister en raison de la nécessité de la réalisation de la taille avant le mois de Mars. Ce point ressort clairement dans notre modélisation. 13 1400 1200 Surcharge de travail due à l’inondation temps (h) 1000 800 Situtation standard Suite à une inondation en Décembre Main d'œuvre en situtation standard Main d'œuvre en situtation de crise 600 400 200 e e de ce m br br e ve m e br no oc to br se pt em t ut ao ju ille ju in ai m ril av s ar m vr ie r fe ja n vi er 0 mois
Figure 9 : Comparaison des temps de travail en situation standard et suite à un scénario d'inondation en Décembre (7 jours de submersion, 100% des parcelles inondées avec 80cm d'eau, vitesse moyenne) Enfin, lorsqu’un récapitulatif des dommages directs et induits est présenté, nous pouvons constater que les dommages
induit
s
par
l’insuffisance
de
main
d’œuvre peuvent représenter un montant important des
dommage
s totaux. Notamment pour les inondations de faible intensité (0-20 cm), le montant de dommages correspondant à la main d’œuvre supplémentaire représente 30% des dommages totaux simulés (Tableau 6). Dommages directs
Dommages induits Hauteur (cm) Récolte Sol Verger Bâtiments Matériel Stock d’intrant Main d’œuvre 0-20 0% 66 % 0% 3% 1% 0% 30 % 20-50 0% 45 % 0% 2% 16 % 15 % 21 % 50-100 0% 44 % 0% 1% 35 % 12 % 8% >100 0% 10 % 29 % 1% 49 % 7% 5% Tableau 6 : répartition des dommages directs et induits pour l'exploitation type spécialisée en arboriculture pour une crue de Décembre (100% des parcelles inondées, durée de 7 jours, vitesse moyenne) 5
Discussion et perspectives
Notre approche de modélisation conceptuelle nous a permis de mettre à plat les différentes hypothèses sous-jacentes et de définir un cadre pour le recueil de données ainsi que pour la modélisation économique des dommages. Elle nous a permis de structurer des supports utilisés avec les acteurs (experts et agriculteurs locaux), pour valider les différentes hypothèses de notre modélisation (structure générale, données relatives aux tâches) et collecter les données nécessaires à la modélisation économique. Nous avons montré ici en quoi les stratégies post-inondation avaient une importance majeure pour le calcul des dommages à l’échelle de l’exploitation agricole et comment nous avons transcris ces stratégies dans notre modèle de simulation des dommages. L’objectif de cette modélisation est de permettre l’évaluation économique d’un programme de réduction de la vulnérabilité des exploitations agricoles sur la zone aval du Rhône. Pour cela, cinq étapes doivent être réalisées : - Le développement d’une méthode d’évaluation des dommages à l’échelle de l’exploitation agricole prenant en compte les dommages directs et induits 14 - La comparaison des dommages subis par une exploitation en situation standard et d’une exploitation où des mesures de réduction de la vulnérabilité ont été mises en place - L’implémentation de ce modèle sur des exploitations types représentatives de l’activité agricole sur la zone d’étude - La comparaison des dommages évités moyens annualisés et du coût de mise en place en prenant en compte un taux d’actualisation et une durée de vie des aménagements - La régionalisation de l’approche sur l’ensemble de la zone d’étude. Pour la réalisation de la première étape, le modèle conceptuel de vulnérabilité des exploitations nous a permis de caractériser la formation des dommages directs et induits. La réalisation d’enquêtes, nous a fourni des éléments sur les stratégies pour la modélisation des dommages induits. Nous avons ainsi montré que la prise en compte des seuls dommages aux cultures n’est pas suffisante pour rendre compte des dommages à l’échelle de l’exploitation et que pour les inondations d’hiver la proportion des dommages induits dans le montant total de dommages pouvait être importante, notamment pour les inondations de faible intensité. Pour les inondations de printemps et d’été, le poids des dommages directs, en particulier aux cultures est a priori beaucoup plus important (Posthumus et al., 2009). Cette caractérisation poussée et formalisée en UML nous a permis de rendre les hypothèses de modélisation claires. Ceci est important car nous souhaitons d’une part rendre la méthode reproductible sur d’autres exploitations type et d’autre part, réaliser des analyses de sensibilité de notre modèle de simulation des dommages. Plusieurs perspectives se dégagent de la modélisation qui a été réalisée. Nous avons intégré dans notre modèle de simulation des dommages, les effets induits à court terme, c'est-à-dire jusqu’à la fin du cycle de production de l’exploitation agricole. Un des objectifs est également de pouvoir intégrer les effets à moyen termes, notamment les effets liés au côté financier (endettement). Il sera ensuite important à ce niveau de séparer les coûts économiques des coûts financiers pour la réalisation de l’évaluation économique des projets de gestion des inondations. Toutefois, l’analyse financière est justifiée pour l’évaluation des politiques de réduction de vulnérabilité ou de restauration de champ d’expansion de crue qui peuvent avoir des impacts socio-économiques importants sur un secteur d’activité particulier, le secteur agricole (Brouwer et al., 2004). Par ailleurs, l'utilisation d'UML nous permet d'envisager une phase ultérieure de modélisation multi-agents. Cette possibilité est particulièrement intéressante pour prendre en compte les liens pouvant exister entre agriculteurs (prêt de matériel, entraide) mais aussi ceux avec les partenaires économiques. Ainsi, les effets liés à l'inondation des filières amont (approvisionnement en matériel ou de stock) et des filières aval (coopérative et répercussion financière des stocks non vendus) pourraient être considérés. Parallèlement, les effets systémiques liés à l'inondation d'un grand nombre d'agriculteurs sur l'organisation e d'une filière de production pourraient être étudiés (pertes de marchés...). 6 Remerciements
Nous tenons à remercier les financeurs du Programme Plurirégional Plan Rhône, en particulier, Anne Laure Soleihavoup et Mathieu Métral en charge du dossier au niveau du service de Prévention des Risques (Mission Rhône) de la DREAL Rhône-Alpes. Les travaux présentés ont également été en partie financés par le programme de recherche « Risque, décision, territoire » du MEEDDAT. 15 7
Références Attonaty, J. M., Chatelin, M. H., et al. (1990): L'évaluation des méthodes et langages de simulation In: J. Brossier, B. Vissac and J. L. L. Moigne (Eds.): Modélisation systémique et systèmes agraires. INRA, Paris. 119-133. Barbut, L., Bauduceau, N., et al. (2004): Vers une évaluation de la vulnérabilité des activités agricoles aux inondations. Ingénieries Eau-Agriculture-Territoires, 39. 29-41. Bauduceau, N. (2001): Eléments d'analyse des répercussions des inondations de novembre 1999 sur les activités agricoles des départements de l'Aude, des Pyrénées Orientales et du Tarn. Rapport technique de l'Equipe pluridisciplinaire Plan Loire Grandeur Nature. 111 p. Bauduceau, N. (2004): De la caractérisation de la vulnérabilité de l'exploitation agricole face au risque d'inondation à la production d'un outil opérationnel de réduction de la vulnérabilité. 52 p. Bremond, P., Abrami, G., et al. (2009): Modélisation conceptuelle UML de la vulnérabilité des exploitations agricoles aux inondations : Lier les dimensions spatiale, organisationnelle et temporelle d'un système complexe. Modèles et Apprentissage en Sciences Humaines et Sociales (MASHS), Université Toulouse Le Mirail Bremond, P., Grelot, F., et al. (2009): Modelling farm vulnerability to flooding: towards the aisal of vulnerability mitigation policies. EAAE PhD Workshop 2009, Giessen.
| 46,559
|
16/dumas.ccsd.cnrs.fr-dumas-00759213-document.txt_3
|
French-Science-Pile
|
Open Science
|
Various open science
| null |
None
|
None
|
French
|
Spoken
| 7,413
| 12,356
|
Hypothèse 8 (Rédigé par Virginie Pettenati) Comme nous avons pu le voir dans la partie théorique, le comportement de forçage vocal est caractérisé par : La projection de la tête, L'exagération de la courbure cervicale, L'exagération de la courbure dorsale, Une respiration thoracique supérieure, L'exacerbation de l'altération vocale. Si nous reprenons l'analyse descriptive des résultats qualitatifs et que nous faisons un classement décroissant de dix premiers items pathologiques les plus souvent rencontrés dans notre population de dysphoniques dysfonctionnels (en position debout et assise), nous obtenons : rang
Repos debout Voix projetée Voix chantée Repos 1 Bassin en arrière Tête projetée Tête projetée Bassin en arrière 2 Ancrage sur les métatarses Respiration thoracique > Bassin neutre 3 Epaules enroulées Bassin neutre Cou en extension 4 Tête projetée 5 Epaules relevées Courbure dorsale exagérée Courbure lombaire atténuée 6 7 Courbure dorsale exagérée Cou en extension Bassin en arrière Epaules relevées Courbure lombaire atténuée Ancrage sur les métatarses Bassin en arrière Epales enroulées Epaules enroulées Courbure lombaire atténuée Ancrage sur les métatarses Courbure cervicale exagérée Tête projetée Courbure dorsale exagérée 8 Courbure cervicale atténuée Courbure lombaire atténuée 9 Tension insuffisante Epaules enroulées Ancrage sur un pied 10 Courbure lombaire exagérée Courbure cervicale exagérée Epaules relevées assis Voix projetée Courbure lombaire atténuée Respiration thoracique > Tête projetée Ancrage sur les métatarses Cou en extension Bassin en arrière Cou en extension Courbure dorsale exagérée Epaules relevées Epaules enroulées Courbure cervicale exagérée Courbure cervicale atténuée Voix chantée Courbure lombaire atténuée Bassin en arrière Tête projet Epaules enroulées Cou en extension Ancrage sur les métatarses Courbure dorsale exagérée Courbure cervicale exagérée Epaules relevées Epaules relevées Courbure cervicale exagérée Courbure cervicale atténuée
(L'item « Sévérité du trouble vocal perçue par l'orthophoniste » n'apparaît pas car cette cotation est uniquement quantitative, tandis que l'item « Respiration » n'est présent qu'en voix projetée, la STRAV ne la cotant pas en voix conversationnelle ni chantée
)
Les items pathologiques considérés comme faisant partie du comportement de forçage vocal ont été signalés par la couleur verte. De manière générale, on observe qu'en voix projetée, les altérations posturales renvoyant au forçage vocal sont plus nombreuses et plus présentes dans la population et ce, quelle que soit la position (debout ou assise). Si on compare les positions debout et assise, l'altération posturale renvoyant au forçage vocal n'apparaît sensiblement pas plus présente en position assise. Seuls la « Courbure cervicale exagérée » apparaît en voix conversationnelle (position assise) et l'item « Courbure dorsale exagérée » en voix chantée (position assise). En revanche, d'autres altérations posturales telles que « Courbure lombaire atténuée » et le « Bassin en arrière » sont plus présentes dans la population assise. Il est aussi intéressant de noter que l'item « Courbure cervicale exagérée » touche plus de sujets en voix chantée (positions assise et debout) que dans les voix projetée et conversationnelle. Si nous reprenons les pourcentages qualitatifs de nos items renvoyant spécifiquement au forçage vocal : « Tête en projection », « Courbure cervicale exagérée », « Courbure dorsale exagérée » et « Respiration thoracique supérieure », en position debout et assise, nous obtenons :
Debout Modalités Items Tête en projection Courbure cervicale exagérée Courbure dorsale exagérée Respiration thoracique > Assis Repos Voix projetée Voix chantée Repos Voix projetée Voix chantée 22,5% 67,5% 60% 32% 62,5% 52,5% 2,5% 32,5% 35% 20% 30% 32,5% 17,5% 15% 35% 27,5% 42,5% 40% 65% 70%
On remarque que l'item « Courbure dorsale exagérée » a une évolution tout à fait singulière. En position debout, elle est présente d'emblée chez 17,5% des sujets, se limite à 15% de la population en voix projetée et atteint 35% en voix chantée. Tandis qu'en position assise, elle est présente d'emblée chez 27,5% des sujets, atteint 42% de la population en voix projetée et représente 40% des individus en voix chantée, rejoignant ainsi la distribution des autres items. En comparant les différentes distributions des positions assise et debout, on remarque que l'item « Tête en projection » moins présent dans l'échantillon assis pour les voix en projection et chantée ; tandis qu'en voix conversationnelle, il est en forte augmentation. L'item « Courbure cervicale exagérée » connaît le même résultat. 69 En revanche, l'item « Courbure dorsale exagérée » atteint sensiblement plus la population en position assise dans les trois modalités et plus particulièrement, en voix conversationnelle et chantée. B. Les perspectives envisagées (Rédaction commune)
Selon notre étude, il semblerait que lorsqu'une altération de la posture influe sur la qualité vocale en position debout, elle est souvent retrouvée en position assise. Nous constatons aussi que bon nombre des patients dysphoniques dysfonctionnels utilisent intensément leur voix dans le cadre professionnel et souvent en position assise. Il y aurait donc un intérêt de santé publique à systématiser le contrôle de la phonation en position debout et assise et à adapter les rééducations à ces deux types de posture - avec une attention toute particulière pour les patients utilisant fréquemment leur voix en position assise. Il nous apparaît aussi clairement que des exercices rééducatifs ne prenant en compte que les altérations relevées en position debout ne peuvent combler un déficit postural et vocal en position assise. Peut-être faudrait-il approfondir l'étude de cette voie rééducative afin de proposer des exercices vocaux plus adaptés aux conditions de vie du patient et à ses altérations phonatoires. Cette étude nous amène aussi à penser qu'une adaptation des postes de travail facilitant le mouvement, l'antéversion du bassin serait à envisager. Avec éventuellement des sièges plus hauts, réglables ou conçus sur le modèle de la position « assis-debout » (18) permettant ainsi d'obtenir le repos des membres inférieurs et l'élimination de bon nombre d'effets néfastes de la position assise telle qu'on l'envisage communément. Une information sur la posture assise pourrait aussi être envisagée et ce, dès le plus jeune âge. En effet, c'est à six ans, âge auquel les enfants entrent au C.P., que nous leur apprenons à rester de longues heures assis. Cette contrainte, motivée par des raisons d'ordre pédagogique, marque très probablement le début de l'installation de la respiration thoracique stricte ainsi qu'une position assise pathologique. Les orthophonistes constatent d'ailleurs que les dysphonies de l'enfant se rencontrent fréquemment et sont difficiles à traiter (31). Une prévention dès cet âge pourrait peutêtre minorer ou retarder l'apparition de ces pathologies. C. Critiques de l'étude
Si notre étude nous a permis de mettre en évidence un certain nombre de corrélations entre les altérations trouvées en position debout et celles objectivées en position assise, ce n'est pas le cas pour tous les items. À un moment de notre réflexion, nous avons pensé créer une nouvelle grille d'évaluation, s'inspirant de la S-TRAV en position debout mais spécifiquement adaptée à la position assise, avec uniquement les items corrélés significativement avec ceux de la position debout. Nous n'avons pas donné suite à notre projet car nous avons pris conscience que la position assise et la position debout ne pouvaient subir une comparaison aussi simpliste. Nous trouvons que la population de notre échantillon est trop faible (40 sujets), qu'il serait plus pertinent de corréler les items entre des patients contrôles assis et des patients dysphoniques assis et pas uniquement entre des patients dysphoniques debout et les mêmes patients dysphoniques en position assise et enfin, qu'il faudrait reprendre tous les items de la S-TRAV initiale (avec notamment les items « Sévérité du trouble « S » » au repos, « Respiration « R » » en voix conversationnelle et chantée, « Ancrage au sol « A » balancement » en voix conversationnelle et 71 chantée, « Ancrage au sol « A » sur un pied » en voix projetée et l'item « Bassin – bascule latérale » en voix projetée). Les postures assise et debout sont deux positions distinctes sur différents aspects, impliquant une démarche de validation propre à chacune d'elles. Nous suggérons donc une nouvelle étude sur la position assise, avec cette fois une population pathologique ainsi qu'une population contrôle suffisantes afin de pouvoir objectiver une grille de cotation spécifique à cette position. D. Validation des objectifs
Notre objectif premier était de démontrer que l'échelle S-TRAV de Amiel J. et Lamy A. est pertinente pour exprimer qualitativement et quantitativement les altérations posturales (respiratoire, de tension, d'ancrage au sol et de verticalité) du comportement phonatoire des sujets dysphoniques en position assise. Au vu de nos validations d'hypothèses, nous considérons avoir validé cet objectif. Néanmoins, nous gardons à l'esprit notre faible population (40 patients) et l'absence de sujets contrôle. Nous n'avons pas redémontré la sensibilité de la S-TRAV en position assise. Et le fait que nous n'ayons pas utilisé la double cotation nuance aussi cette validation, bien que la reproductibilité inter-examinateurs ait déjà été prouvée pour la S-TRAV. Notre deuxième objectif était de comparer les cotations en position assise et debout afin d'observer d'éventuelles dissociations ou au contraire des corrélations entre ces deux conditions. Cet objectif a clairement été confirmé par nos validations d'hypothèses. Notre troisième objectif était d'observer si, en position assise, des altérations sont plus déterminantes pour provoquer une dysphonie dysfonctionnelle qu'en position debout. La confirmation de l'hypothèse 8 valide notre troisième objectif. Notre dernier objectif était une ouverture de santé publique : Notre étude démontre l'effet délétère d'une mauvaise position assise chez les personnes dont les conditions de travail l'imposent. Elle nous a aussi permis d'aborder l'importance d'une ergonomie de la position assise et d'en déterminer certains critères. V. PROPOSITION DE MODE D'EMPLOI DE LA S-TRAV A- Introduction
Nous faisons écho à la constatation faite par Juliette Wacongne et Marie Cugnière (8) qui observent que l'utilisation de la S-TRAV requiert une bonne connaissance pour pouvoir tirer parti au mieux de ses possibilités. Nous avons donc décidé d'établir un guide d'utilisation de la S-TRAV pour faciliter son usage et ainsi permettre à davantage de professionnels de l'utiliser. Nous allons d'abord décrire les épreuves demandées au patient, puis point par point les zones importantes à observer, leur ordre et la notation adaptée. Enfin, des exercices de remédiation seront proposés.
B- Description de l'échelle
L'échelle S-TRAV s'intéresse à cinq paramètres nécessaires à l'évaluation du comportement vocal : la sévérité du trouble (S), la tension générale du sujet (T), le type de respiration (R), l'ancrage au sol (A) et la verticalité (V). (annexe 16) Ces cinq éléments sont appréciés dans trois modalités vocales (dans les positions debout et/ou assise) : la voix conversationnelle ou au repos, la voix projetée et la voix chantée. Une feuille de passation sera nécessaire pour chacune des deux positions. Pour chaque item, nous disposons d'une cotation quantitative du trouble observé : 0 = absence de trouble, 1 = altération légère, 2 = altération modérée, 3 = altération sévère, Ainsi que d'une cotation qualitative que l'on note en cochant la ou les cases en fonction des altérations observées. 73 1) La sévérité du trouble vocal et postural (cotation quantitative) Par l'orthophoniste d'abord, respectivement « SvO » et « SpO », Par le patient ensuite, respectivement « SvO » et « SpO ». 2) La tension générale (cotation quantitative et qualitative) Neutre, Insuffisante, En excès. Ce critère apprécie le degré de tension générale et/ou localisée. 3) La respiration (cotation quantitative et qualitative) Abdominale, Thoraco-abdominale, Thoracique supérieure. La reprise d'air « R.I. » a également été notée. 4) L'ancrage au sol (cotation quantitative et qualitative) Les différents types d'ancrage : - neutre, - sur les métatarses (avant-pieds), sur les talons, L'appui sur un pied, La présence d'un balancement. 5) La verticalité a. Verticalité générale (cotation quantitative) b. Position de la tête (cotation quantitative et qualitative) Neutre, Projetée, En extension. 74 c. Position du cou (cotation quantitative et qualitative) Neutre, En extension. d. Position des épaules (cotation quantitative et qualitative) Basses, Relevées, Enroulées. e. Courbure cervicale (cotation quantitative et qualitative) Neutre, Exagérée, Atténuée. f. Courbure dorsale (cotation quantitative et qualitative) Neutre, Exagérée, Atténuée
. g. Cour
bur
e
lombaire
(cotation quantitative et qualitative) Neutre, Exagérée, Atténu
ée
. h. Position
du bassin
(cotation quantitative et qualitative) Neutre,
Bascule
en avant, Bascule en arrière, Ba
scule
latérale. 75 i.
Genoux
(cotation
quantitative et
qualitative) Souples,
Raides. C- Description de la passation
Lors de la passation, il faut mettre le patient dans les trois situations successives suivantes : la voix conversationnelle, projetée et chantée. Il est conseillé à l'utilisateur de suivre l'ordre décrit afin d'optimiser le temps de passation par une bonne structure de l'évaluation.
1) La voix au repos
La voix conversationnelle n'a pas forcément besoin de support particulier pour être observée. Lors de l'entretien anamnestique, nous pouvons d'ores et déjà commencer à observer la posture du patient. La lecture à voix haute d'un texte sera ensuite demandée.
2) La voix projetée
La voix projetée est évaluée en deux étapes. En première intention, un texte de théâtre (éventuellement le monologue de Créon dans « Antigone » de Jean Cocteau) est proposé au sujet qui doit le lire comme s'il était face à une assemblée. Dans un deuxième temps, nous lui demandons d'effectuer un comptage projet, tel un professeur de sport qui rythme un exercice pour une classe entière : « Et un! Et deux! Et trois! ».
3) La voix chantée
Le patient est libre de choisir une chanson qu'il connaît bien. Si rien ne lui vient à l'esprit, on proposera des comptines enfantines (« Frère Jacques », « Meunier, tu dors », « Une souris verte », etc.). 76 D- Aide à l'observation et à la cotation
Nous proposons d'observer le patient du bas vers le haut car nous avons pu constater que cette manière de procéder était facilitatrice, la posture se construisant sur des appuis solides, des pieds jusqu'à la tête.
1) La sévérité du trouble
La sévérité du trouble vocal et postural est cotée en position debout et/ou assise. La sévérité vocale correspond au degré de l'altération vocale perçue par l'orthophoniste d'abord, puis par le patient lui-même. Il en va de même pour la sévérité du trouble postural. Il faut s'intéresser, avant toute chose, à la voix du patient en début de chaque nouvelle modalité (repos, voix projetée, et voix chantée). Dans l'item « SvO » coter la perception de l'altération entendue (de « 1 » à « 3 ») ou l'absence d'altération (« 0 »), puis dans l'item « SvP », coter selon le ressenti du patient lui-même de la même façon. La sévérité du trouble postural perçue par l'orthophoniste est coté dans l'item « SpO ». Il est conseillé de le faire à la fin de l'examen après avoir observé l'ensemble de la posture du patient et ainsi en avoir une vision plus globale. Le « SpP » par contre est coté en début de passation. On demande au patient son avis sur sa propre posture, s'il en souffre et à quel point.
2) L'ancrage au sol
Nous commençons maintenant la cotation et l'observation de la posture à proprement parler. Nous examinons donc en premier lieu les pieds, en cherchant à voir où se fait l'appui. Si le patient bénéficie d'un bon équilibre avec une répartition harmonieuse du poids du corps sur toute la surface pieds, coter « neutre »-« 0 ». Si la personne est déséquilibrée vers l'avant, cocher « avant des pieds (sur les métatarses) » puis coter « 1 », « 2 »ou « 3 » selon la sévérité. Si l'appui se fait sur l'arrière des pieds, cocher « arrière des pieds (talons) » puis coter « 1 », « 2 » ou « 3 » selon le degré d'altération. Le balancement d'un pied sur l'autre est coté pathologique « 1 », « 2 » ou «3 ». Il ne doit pas être confondu avec « l'appui sur un pied ». Une personne peut très bien avoir un pied d'appui préférentiel suite à de nombreuses altérations (dorsales, des genoux, du bassin) mais cela n'entraîne pas forcément une posture pathologique. Dans ce cas précis, il faut observer le reste des courbures afin de voir si la personne compense en restant stable ou si cette préférence crée un déséquilibre. Selon cette observation, on cotera pathologique ou non l'appui sur un pied de « 0 » à « 3 ». En position assise, on sera tout aussi vigilant à l'ancrage au sol du sujet. Il sera coté de la même façon qu'en position debout.
3) La verticalité a. Les genoux
Nous continuons notre analyse vers les genoux : observer s'il existe une rigidité ou non. Celle-ci se caractérise généralement par une contraction plus ou moins grande des mollets et des cuisses donnant une impression de « jambe raide ». Cet item, lorsqu'il est présent, est facilement observable. On le cote « 1 » pour altération ou « 0 » pour absence d'altération, aussi bien en position assise que debout.
b. Bassin
D'après nos recherches et notre expérience de la STRAV, nous avons pu clairement mettre en évidence l'importance du bassin. Cet élément central doit donc être coté avec beaucoup de finesse et de précision. La position neutre du bassin (légèrement antéversé (annexe 18) permet à la colonne vertébrale et aux jambes d'être alignées sans provoquer de changement des courbures vertébrales. La bascule antérieure (en avant) entraîne un étirement maximal de la paroi abdominale. (annexe 19) À l'inverse, la bascule postérieure se distingue par une atténuation de la lordose lombaire, voire par la création d'une cyphose aire. (annexe 20) Toutes ces appréciations sont valables dans les deux positions, assise et debout. Assis et debout, on observe parfois une bascule latérale du bassin lorsque le patient prend préférentiellement appui sur une jambe. Cela suit la même logique que l'appui sur un pied. Il faut aller chercher les courbures cervicale, dorsale et lombaire afin de conclure ou non à une altération. Lors de la modalité « voix au repos », coter « 0 » pour neutre, puis « 1 » pour bascule antérieure, « 2 » ou « 3 » pour bascule postérieure. 78 En modalité « voix projetée » et « voix chantée », la cotation change. Il faut impérativement avoir à l'esprit qu'une posture adaptée à ce type d'utilisation de la voix nécessite un redressement de tout le corps, autant assis que debout. La verticalité particulière à ces deux modalités implique automatiquement une bascule antérieure du bassin. C'est pourquoi nous cotons « 1 » pour neutre, « 0 » pour la bascule antérieure, et « 2 » ou « 3 », selon la sévérité, pour la bascule postérieure qui correspond toujours à une altération importante dans ces deux modalités.
c. Les courbures cervicale, dorsale et lombaire (annexe 21)
Nos observations au sujet de ces trois courbures sont valables dans les deux positions (assise et debout). La cotation restera donc la même.
i. Courbure cervicale
La courbure cervicale neutre, cotée « 0 », est légèrement concave par rapport à l'avant du corps. On peut observer une atténuation de cette courbure, lorsque la tête est légèrement inclinée vers l'avant et qu'elle réduit ainsi la courbure cervicale. Dans ce cas, noter « A », puis coter la sévérité selon le degré de l'altération « 1 », « 2 » ou « 3 ». Une exagération peut aussi être constatée lorsque le menton est relevé (lui est souvent associée une voussure des épaules). Noter « E » puis coter comme précédemment selon l'ampleur de l'altération. ii.
Courbure dorsale
La courbure dorsale neutre, elle, est légèrement convexe par rapport à l'avant du corps. On la cote « 0 ». On procède de la même manière que pour la courbure cervicale. Noter le type d'altération si elle existe : « E » pour exagération, ou « A » pour atténuation. Puis spécifier quantitativement le degré de sévérité par « 1 », « » ou « 3 ».
iii. Courbure lombaire
En position assise, la courbure lombaire est cotée neutre « 0 » lorsqu' on n'observe pas d'altération particulière. Lorsque nous constatons une exagération, la case « exagération » a été cochée et cotée selon son degré d'altération « 1 », « 2 » ou « 3 ». L'atténuation (souvent liée à la bascule postérieure du bassin) sera notée de la même façon.
d. Les épaules
Une altération de la position des épaules, autant assis que debout, entraîne souvent une altération de la position du cou et de la tête, d'où l'importance de la coter avec précision. La position dite « basse » des épaules correspond à la position neutre. 4) Respiration
La respiration est un des éléments les plus simples à observer. La S-TRAV permet d'évaluer trois types de respiration : la respiration abdominale, la respiration thoraco-abdominale et la respiration thoracique supérieure, qui peuvent s'accompagner de reprises d'air inadaptées. Les observations et cotations restent similaires en position assise et debout. Au repos, les respirations abdominale et thoraco-abdominale sont cotées « 0 ». La respiration thoracique supérieure est cotée « 2 » ou « 3 » selon l'utilisation. Pour les modalités « voix projetée » et « voix chantée », on attend l'utilisation de la respiration abdominale pour coter la neutralité « 0 ». La respiration thoraco-abdominale selon son utilisation est cotée « 1 » ou « 2 ». On peut observer une respiration abdominale haute, donc légèrement 80 thoraco-abdominale auquel cas coter « 1 », ou nous pouvons observer une respiration thoracique avec un léger mouvement abdominal et coter « 2 ». La respiration thoracique stricte est, elle, toujours cotée « 3 ».
5) Tension générale
La tension générale s'observe à la fin, pour avoir une vue globale de la tension du patient. Nous observons la tension générale du patient, s'il semble tendu, raide ou au contraire détendu. Lorsque la tension est tonique, sans être excessive ou insuffisante, elle est cotée « neutre-0 ». En revanche, lorsqu'on observe la présence d'une altération, on détermine en premier lieu s'il s'agit d'un excès ou d'une insuffisance puis on cote selon la sévérité « 1 », « 2 » ou « 3 ». D. Proposition d'exercices de remédiation 1) Introduction
La passation de la S-TRAV a permis de préciser le ou les troubles générant la dysphonie dysfonctionnelle dont souffre le patient. Il convient désormais de dégager les axes de rééducation suivant le diagnostic et les observations faites durant cette passation. Une dysphonie dysfonctionnelle simple étant ordinairement la conséquence d'un forçage vocal, une des orientations majeures de sa correction sera la sortie du « cercle vicieux du forçage vocal » par la prise de conscience et la rectification du comportement phonatoire déviant du sujet. Une dysphonie dysfonctionnelle simple étant aussi le résultat de l'action conjuguée de divers facteurs (favorisants et déclenchants), le thérapeute devra prendre en considération le contexte dans lequel est apparue cette conduite phonatoire inadaptée.
2) La rééducation vocale a. Le temps de l'information et de l'expérimentation
Toute rééducation de ce type doit commencer par l'information du sujet sur l'anatomie du larynx, le fonctionnement d'un comportement phonatoire correct, sur les mécanismes pathologiques générant la dysphonie dysfonctionnelle en général et les difficultés vocales qu'il rencontre en particulier. Ce temps d'information est aussi l'occasion pour le patient d'explorer et d'expérimenter ses possibilités vocales réelles (27). Il doit prendre conscience que ses difficultés vocales ne se limitent pas à l'aspect vocal de son quotidien, ne sont pas circonscrites à son larynx voire à ses plis vocaux. Pour réapprendre un geste vocal correct, il devra effectuer un travail pouvant aborder la posture (ancrage au sol et verticalité), la respiration et la détente musculaire – selon ses difficultés propres bien sûr. Il doit être averti que la durée de cette rééducation peut varier entre quelques semaines (ce qui est plutôt rare) et quelques mois voire une année. Les premiers progrès n'apparaissant généralement qu'au bout des quinze premières séances. Il doit être informé des différentes étapes constitutives de sa rééducation (la relaxation, la verticalité, la respiration). Et enfin, il doit prendre conscience que pour que cette rééducation soit efficace, elle réclame un investissement personnel non négligeable : une à deux séances par semaines au cabinet et entraînement quotidien à la maison – en dehors des séances – par la pratique des exercices appris avec le thérapeute. Cette première étape est donc très importante quant aux suites positives ou négatives de la rééducation entreprise.
b. Travail sur la tension
Une tension excessive est un symptôme fréquent chez les dysphoniques dysfonctionnels. Pour arriver à la maîtriser, les rééducateurs ont très souvent recours à la relaxation. Ayant à leur disposition différentes techniques, ceux-ci doivent garder à l'esprit qu'elle a pour but (en dehors de la diminution des tensions musculaires) le contrôle du tonus, indispensable à une bonne phonation. i. La relaxation « les yeux ouverts » de F. Le Huche (27) Cette technique, peu contraignante ( fois par jour, cinq à sept minutes), donne au patient des objectifs précis lui permettant ainsi de se repérer et d'obtenir des résultats généralement rapides. On peut la décomposer en trois étapes : 1. Adaptation à la position allongée avec prise de conscience de sa respiration (abdominale, thoracoabdominale ou thoracique supérieure), 82 2. Exécution de soupirs s'appuyant sur un mouvement respiratoire simultanément abdominal et thoracique, 3. Travail sur la crispation/détente : * Crispation-relaxation de différentes parties du corps : - main et avant-bras droits, - jambe et pied droits, - jambe et pied gauches, - main et avant-bras gauches, * Elévation et détente de différentes parties du corps : - Epaule gauche, - Tête, - Epaule droite * Retour à la respiration continue Cette technique a cinq objectifs : La non diffusion de la crispation, L'immédiateté de la décontraction, La profondeur de l'illusion de poids ou d'évanouissement du membre puis vitesse d'installation de cette illusion, La mobilisation du thorax et du ventre dans le soupir, L'aisance générale ii. Méthode de relaxation de S.J. Robertson et F. Thomson (34) Dans le cadre de la rééducation des dysarthries, S.J. Robertson et F. Thomson proposent une méthode de relaxation qui a la particularité de pouvoir être effectuée debout ou assis – selon la volonté ou les possibilités du patient –. Il peut ainsi, quand les bases seront acquises, l'utiliser à différents moments de la journée (dans le bus, au bureau, devant la télévision).
1. Relaxation des pieds, des jambes et des fesses
- Flexion des orteils pendant trois secondes, le plus fort possible puis relâchement afin d'obtenir aussi la détente des jambes (répéter), - Mouvement des chevilles une par une puis relâchement, - (Position assise impérative) Poussée la plus forte possible du pied à plat sur le sol (trois secondes) puis relâchement pour obtenir la sensation de tension et de relaxation au niveau du mollet (répéter), 83 - Raidissement des genoux (jambes bien droites) pendant trois secondes puis relâchement pour sentir tension et relaxation au niveau des genoux (répéter), - (Position assise impérative) Poussée des cuisses et des fesses qui se serrent en même temps dans le fauteuil pendant trois secondes puis relâchement pour obtenir la sensation de tension et de relaxation de ces muscles.
2. Relaxation de l'abdomen, de la poitrine et du dos
Contraction des muscles abdominaux pendant trois secondes puis relâchement ; pour prendre conscience de la tension au niveau du dos, de la poitrine et du diaphragme pendant cette contraction et du relâchement aux mêmes endroits quand il détend en respirant doucement et profondément, 3. La rééducation d'une posture altérée est donc essentielle dans la prise en charge de ce type de patients. De plus, elle facilite grandement l'exécution des exercices de souffles et prédisposent à une meilleure pratique des exercices vocaux futurs. (Il est conseillé au thérapeute d'avoir une glace en pied afin que le patient puisse vérifier de luimême la bonne exécution des exercices demandés.)
i. Le Sphinx
Description : Le patient est debout (sans raideur), face à une cible choisie par lui. Les pieds ne sont pas plus écartés que la largeur des épaules, le corps et la tête sont dans le même axe. Tandis que le sujet regarde la cible, il dirige légèrement son visage vers la droite sans lâcher la cible des yeux (il tient cette position une à cinq secondes), puis recentre son visage (il tient cette position une à cinq secondes) puis oriente légèrement son visage vers la gauche toujours en regardant la cible (il tient cette position une à cinq secondes) et ramène son visage vers le centre. Cette succession de mouvements est à exécuter deux ou trois fois. Le patient doit vérifier que : - Son regard oculaire n'a pas suivi le visage dans son déplacement, - Son corps et sa tête sont restés dans le même axe vertical, - La tête tourne indépendamment de tout le reste du corps. Intérêt : Cet exercice, en sollicitant les muscles oculomoteurs et l'afférence podale qui sont en lien direct avec la gestion de la posture, permet au sujet d'exercer un contrôle postural fin et de prendre conscience de son axe vertical. ii.
La Posture du ca
valier (14) (annexe 22) Description : La base de sustentation est élargie (les pieds sont écartés au-delà du niveau des épaules, selon un angle 45°), le poids du corps est réparti sur la totalité du pied avec une légère concentration sur la partie postéro-externe des talons, les jambes sont fléchies, le bassin est en antéversion et solide (le thérapeute peut le vérifier en poussant sur les hanches du patient qui doit rester stable), les bras détendus tombent le long du buste, les épaules sont basses, le menton est légèrement rentré. Intérêt : Cette position statique permet, lorsqu'elle est correctement exécutée, de descendre le centre de gravité, d'obtenir un bon ancrage au sol, des genoux souples, un bassin en antéversion, une 85 lordose lombaire physiologique, une courbure dorsale dans l'axe et dont le redressement engendre l'ouverture thoracique et la projection du sternum vers l'avant et vers le haut, une courbure cervicale et une nuque allongées vers le haut, un buste et des bras totalement libres de toute tension et des épaules basses (on peut le vérifier en demandant au patient de garder la position tout en secouant ses épaules un peu à la manière des danseuses orientales). Le ventre est détendu et la respiration peut s'exercer librement. Cette attitude de recentrage, de positionnement dans l'axe peut constituer une base posturale pour les exercices respiratoires et phonatoires.
iii. L'exercice des cinq charnières
(27) Description : Cet exercice, inspiré d'Etienne Decroux (directeur d'une école de mime et acteur dans « Les Enfants du Paradis » de Marcel Carné) peut être exécuté aussi bien debout qu'assis (sur le tiers antérieur du siège). Il discerne cinq étapes pour passer de l'attitude verticale à la flexion antérieure maximum du corps. Chaque étape est caractérisée par une attitude physique et psychologique précise. Ainsi, à l'attitude de projection vocale, succèdent l'attitude de réflexion, de réflexion profonde, d'abattement, d'épuisement et d'écroulement. (annexe 23) Le patient est invité à adopter, maintenir (5 à 20 secondes) et vivre successivement ces cinq postures. Il doit ensuite remonter vers l'attitude de projection vocale en passant par ces mêmes étapes. Intérêt : Cet exercice permet un travail intéressant sur la distanciation, la per des différents types de respiration induits, le contrôle postural lors de postures chargées émotionnellement.
iv. Le trône ou la verticalité suprême
Description : Cet exercice, tiré de la pratique de yoga élaborée par Nil Hahoutoff, peut se pratiquer debout ou assis. Le patient doit s'asseoir sur un tabouret disposé contre un mur, les pieds à plat sur le sol. Il fait adhérer le mieux possible au mur, ses fesses, puis la totalité de son dos et la base de sa tête contre le mur dans un mouvement partant du bas vers le haut. L'attitude finale, si le patient arrive à la prendre, est une verticalité parfaite avec les courbures vertébrales atténuées. Intérêt : La tendance étant, à chaque nouvelle adhésion, le décollement de la partie précédente, cet exercice demande un contrôle permanent et rigoureux de chaque segment. Il permet la dissociation 86 et la prise de conscience de l'indépendance de chaque portion ainsi que de l'interdépendance qu'elles entretiennent entre elles. Il permet aussi un travail intéressant sur la bascule du bassin.
v. L'exercice du balai
Description : Face au miroir, bien droit (les épaules et le menton bien alignés dans l'axe du corps), les épaules basses, les pieds bien au sol, le sujet est assis sur le tiers antérieur de sa chaise (les deux tiers antérieurs de ses jambes ne sont pas sur le siège). Il tient le manche d'un balai à chaque extrémité par les deux mains et posé sur le haut de ses cuisses. Il tend ses bras devant lui en faisant glisser le manche à balai sur le haut des cuisses jusqu'à ses genoux ; il monte ses bras tendus devant lui jusqu'au-dessus de sa tête ; arrivé en haut, il fait redescendre verticalement le manche à balai derrière sa tête puis le long de son dos, jusqu'au sacrum. Intérêt : Cet exercice travaille les muscles abdominaux, lombaires et paravertébraux, la bascule du bassin en avant et l'extension du rachis.
d. Travail respiratoire (27)
Grâce à la pratique des exercices posturaux, le travail respiratoire sera facilité. Il pourra même s'appuyer sur des postures travaillées précédemment. Le but premier de cette partie de la rééducation est la restauration du mécanisme de projection vocale dans lequel s'inscrit le souffle phonatoire. Les objectifs seront donc la maniabilité, la précision et la souplesse du geste respiratoire à l'intérieur de la phonation.
i. Le hérisson
Description : Le sujet, debout au miroir, regarde son ventre et son thorax. Il contrôle son inspiration abdominale avec le bout des doigts posés entre l'ombilic et le pubis. Il doit, au cours de plusieurs séries de trois inspirations successives, remplir son bas du ventre d'air. Ces inspirations sont plutôt brèves et suivies d'une expiration passive immédiate. Le sujet doit être attentif à ce que son thorax reste détendu et immobile pendant tout l'exercice. Intérêt : On aborde le geste inspiratoire abdominal dans la phonation. ii. L'ensemble de ces propositions d'exercices de rééducation n'est proposé qu'à titre indicatif. Chaque patient étant unique doit pouvoir bénéficier d'un ensemble d'exercices qui lui est propre et qui est adapté à sa pathologie propre
CONCLUSION
Notre objectif initial était de prouver que l'échelle d'évaluation S-TRAV est pertinente pour objectiver les troubles posturaux et vocaux en position assise chez les personnes souffrant d'une dysphonie dysfonctionnelle. Nous voulions ainsi démontrer que la S-TRAV est un instrument intéressant à la fois dans la démarche diagnostique mais aussi rééducative. L'ensemble des données que nous avons recueillies semblerait nous conforter dans cet objectif : la S-TRAV a de nombreuses qualités d'objectivation des troubles posturaux et vocaux en position assise, dans le cadre des dysphonies dysfonctionnelles. Elle permet ainsi, grâce à l'observation minutieuse et systématique qu'elle induit, d'étayer le diagnostic et de dégager les axes de rééducation essentiels à la prise en charge. Paradoxalement, c'est la position assise en elle-même qui nous a interrogées le plus. Tout au long de nos passations et de nos recherches théoriques, nous avons été étonnées par le « caractère indépendant » de cette posture. Et désormais, il nous apparaît clairement que la position debout ne peut servir de modèle d'évaluation de la posture assise. Nous avons aussi constaté que cette position extrêmement fréquente de nos jours n'est en rien anodine et ce, sans que nous en ayons réellement conscience. Les altérations qu'elle provoque ont une influence importante sur la phonation et plus particulièrement chez les sujets à risques. Par ailleurs, nous avons constaté, du fait de la participation de nombreuses étudiantes à la cotation de l'é (examinateur 2) que les nombreuses subtilités de cette échelle avaient besoin d'être détaillées et qu'un mode d'emploi serait certainement nécessaire. BIBLIOGRAPHIE
[1] AMIEL J., LAMY A., (2010). Proposition d'une échelle d'évaluation de la posture pour les dysphonies dysfonctionnelles simples : S-TRAV, Mémoire de l'Université Paris VI présenté pour l'obtention du Certificat de Capacité d'Orthophoniste, 100 p. [2] AMMANN L., (2000). De la voix en orthophonie. Marseille : Solal, 131 p. [3] BAUCHER J., LEBORGNE P., (2006). Application d'une approche transversale de l'appareil locomoteur au confort siège, Encyclopédie Médico-Chirurgicale, ITBM-RBM, volume 27, n° 3 – pp. 133-140. Paris : Elsevier Masson SAS [4] BRIN F., COURRIER C., LEDERLE E., MASY V., (2004). Dictionnaire d'orthophonie. Isbergues : Ortho Edition, 298 p. [5] CORNUT G., (2005). La voix, 7e édition. Paris : Que sais-je, Presse Universitaire de France, 127 p. [6] COURRAUD-BOURHIS H., (2002). Le sens de l'équilibre : éléments de neurophysiologie appliqués à la rééducation sensorielle. Paris : Point d'appui, 110 p. [7] CREVIER-BUCHMAN L., BRIHAYE-ARPIN S., SAUVIGNER A., TESSIER C., MONFRAIS-PFAUWADEL M.-C., BRASNU D., (2006). Dysphonies non organiques, Encyclopédie Médico-Chirurgicale, Oto-rhino-laryngologie, 20-752-A-15. Paris : Elsevier Masson SAS. [8] CUGNIÈRE M., WACONGNE J., (2011). Étude de la S-TRAV sur une population sans pathologie vocale utilisant intensivement la voix, Mémoire de l'Université Paris VI présenté pour l'obtention du Certificat de Capacité d'Orthophoniste, 95 p. [9] DEHESDIN D., CHOUSSY O., (1998). Anatomie du pharynx, Encyclopédie MédicoChirurgicale, Oto-rhino-laryngologie, 20-491-A-10. Paris : Editions Scientifiques et Médicales Elsevier SAS (tous droits réservés) [10] DUJARDIN B., LISSAC J.-P., (2001). Assises à double niveau, EMC (Elsevier Masson SAS Paris), Motricité cérébrale, volume 22, n°4 – pp. 151-158 [11] DUJARDIN F., TOBENAS-DUJARDIN A.-C., WEBER J., (2009). Anatomie et physiologie de la marche, de la position assise et debout, Encyclopédie Médico-Chirurgicale, Appareil locomoteur, 14-010-A-10. Paris : Elsevier Masson SAS. [12] ENGSTRÖM B., (2009). L'assise ergonomique Un véritable défi Posture assise et mobilité des personnes handicapées. Grenoble : Format Editions, 250 p. [13] FOISNEAU S., RIEDEL S., CHEVALIER D., DECORTE D., (2003). La voix dans tous ses états. Paris : Ortho Edition, 197 p. [14] FRERES M., MAIRLOT M.-B., (2002). Maîtres et Clés de la Posture, 2ème édition. Paris : Editions Frison-Roche [15] FRESNEL-ELBAZ E., (1997). La voix. Paris : Le Rocher, 190 p. [16] GAGEY P.-M., WEBER B., (2004). Posturologie: régulation et dérèglements de la station debout, 3ème édition. Paris : Masson, 199 p. [17] GATIGNOL P., (2009). La voix dans tous ses maux. Isbergues : Ortho Edition, 351 p. [18] GENDRIER M., (2004). Gestes et mouvements justes, Guide de l'ergonmotricité pour tous. Les Ulis : EDP Sciences, 248 p. [19] GIOVANNI A., ASSAIANTE Ch., GALMICHE A., VAUGOYEAU M., OUAKNINE M., LE HUCHE F., (2006). Forçage vocal et posture : études expérimentales chez le sujet sain. Marseille : Revue de Laryngologie Otologie Rhinologie, Vol. 127 – pp. 285-291. [20] GIOVANNI A., AUMELAS E., CHAPUS E., LASSALLE A., REMACLE M., OUAKNINE M. (2004). Le forçage vocal et ses conséquences, Annales Otolaryngologiques Chirurgicales Cervico-faciales, Vol. 121, 4 (pp. 187-196). Paris : Masson. [21] GRIBENSKI A., CASTON J., (1973). La posture et l'équilibration. Paris : Que sais-je, Presse Universitaire de France, 128p. [22] HASSID N., HENNAUX C., VAN NECHEL C., (2009). La rééducation vestibulaire, 2ème tirage, Paris : Frison Roche, 179 p. [23] HEUILLET-MARTIN G., GARSON-BAVARD H., LEGRE A., (2007). Une voix pour tous, Tome 1, 3ème édition, La voix normale et comment l'optimaliser. Marseille : Solal, 215 p. [24] LAGIER A., VAUGOYEAU M., BOUCHE C., GHIO A., LEGOU T., ASSAIANTE C., GIOVANNI A., (2009). Étude posturale de sujets normaux en situation expérimentale d'effort vocal. Marseille : Revue de Laryngologie Otologie Rhinologie, vol. 130 – pp. 11-16. [25] LE HUCHE F., ALLALI A., (2001). La voix, anatomie et physiologie des organes de la voix et de la parole, Tome 1, 3ème éditions. Paris : Masson, 199 . [26] LE HUCHE F., ALLALI A., (2001). La voix, pathologies vocales d'origine fonctionnelle, Tome 2, 3ème éditions. Paris : Masson, 159 p. [27] LE HUCHE F., ALLALI A., (2007). La voix, Thérapeutique des troubles vocaux, Tome 4, 3ème éditions. Paris : Masson, 211 p. [28] LEVEQUE M., SEIDERMANN L., ULMER E., CHAYS A., (2009). Physiologie vestibulaire : bases anatomiques, cellulaires, immonuhistochimiques et électrophysiologiques, Encyclopédie Médico-Chirurgicale, Oto-rhino-laryngologie, 20-198-A-10. Paris : Elsevier Masson SAS [29] MAZEVET D., PRADAT-DIEHL, KATZ R., (2004). Physiologie et physiopathologie de la proprioception, In Proprioception : actualités en 2004. Paris : Springer, 134 p. [30] MCFARLAND D.H., (2006). L'anatomie en orthophonie, Parole, voix et déglutition. Paris : Masson, 226 p. [31] OSTA A., (2009). Les dysphonies de l'enfant : bilans et rééducation. In Sous la direction de GATIGNOL P., La voix dans tous ses maux. Isbergues : Ortho Edition, 351 p. [32] PERENNOU D., AMBLARD B., (2001). La posture et l'équilibre, Journal de réadaptation médicale, Vol 21, n°1, p.19 [33] REVIS J., CARREYRE F., (2008). Rééducation des troubles de la voix d'origine organique ou fonctionnelle. Annexe 8 « Basculement du bassin en avant (antéversion) » (12)
4. Muscles dorsaux (plusieurs) : Extension de la colonne vertébrale et/ou antéversion du bassin, 5. Muscles fléchisseurs de la hanche (ilio-psoas) : Flexion de la hanche, rotation de la hanche vers l'extérieur et/ou antéversion du bassin, 6. Muscle extenseur du genou : extension du genou, flexion de la hanche et/ou antéversion du bassin, Adducteurs de la hanche : Jambes rapprochées, flexion de la hanche et/ou rétroversion ou antéversion du bassin (la direction du bassin dépend de la direction et du degré de rotation de la hanche), Rotateurs de la hanche (avec hanches fléchies) : Une rotation de la hanche vers l'intérieur agit mécaniquement sur le bassin en provoquant son basculement en arrière. Une rotation bilatérale des hanches vers l'extérieur limite le basculement du bassin en avant
. Larynx hypotonique (26) Annexe 10 « Quatre aspects possibles des plis vocaux en cas de larynx hypotonique » a. Plis vocaux normaux (blancs), b. Plis vocaux légèrement congestifs (rosés), c. Lacis vasculaire, d. Liseré rouge. Annexe 11 « Deux comportements possibles des plis vocaux en cas de larynx hypotonique pendant la respiration » a. Image en « rideaux de bonne femme »(observé avec un miroir), b. Image en pseudo-nodules postérieurs. Annexe 12 « Quatre comportements possibles des plis vocaux en cas de larynx hypotonique pendant la phonation » a. Accolement normal, b. Défaut d'affrontement postérieur (coulage postérieur), c. Aspect de glotte ovalaire, d. Défaut d'affrontement longitudinal. Larynx hypertonique (26) Annexe 13 « Deux aspects possibles des plis vocaux en cas de larynx hypertonique » a.
Plis vocaux boudinés et plis vestibulaires d'aspect inflammatoire et hypertrophique, b. Bords libres des plis vocaux « crénelés » et muqueuse d'aspect irrégulier. Annexe 14 « Un comportement possible des plis vocaux en cas de larynx hypertonique observé en phonation » ANNEXE N°31 : Feuille de passation de l'échelle S-TRAV simplifiée
Patient
n
°
:................... Date du bilan :............... Nom Prénom :................ Date de naissance :............ Profession :.................. Examinateur :. Légende : en noir : critères sensibles en gris : critères non sensibles Au repos Sévérité du trouble
« S » - Vocal : □ perçue par l'orthophoniste « SvO » □ perçue par le patient « SvP » - Postural : □ perçue par l'orthophoniste « SpO » □ perçue par le patient « SpP
» Tension générale «
T
» □ neutre □ insuffisance de tension □ excès de tension Respiration « R » □ abdominale □ thoraco-abdominale □ thoracique supérieure □ reprise d'air inadaptée Ancrage au sol « A » □ neutre □ appui en arrière (sur les talons) □ appui en avant (sur les métatarses) □ appui sur un pied □ balancement Verticalité
« V »
-
Tête : □ en position neutre □ en projection □ en extension -
Co
u : □ en position neutre □ en extension
-
Epaules
:
□ basses □ relevées □ enroulées
- Courbur
es
:
□ Cerv
ical
e
:
neutre, exagérée ou atténuée □ Dorsale □ Lombaire : neutre, exagérée ou atténuée
-
Bass
in
: □ en position neutre □ bascule en avant □ bascule en arrière □ bascule latérale
- Genoux
: □ souples □ raides
En phonation Vx projetée Vx chantée ortho: ( ) ortho: ( ) ortho: ( ) pat. : ( ) ortho: ( ) pat. : ( ) ortho: ( ) pat. : ( ) ( ) □ neutre □ insuff. □ excès ( ) □ abdo. □ T.A. □T> □ R. I. ( ) □ neutre □ talons □ méta. □ sur1pied □ bal. ( ) ( ) □ neutre □ proj. □ ext. ( ) □ neutre □ ext. ( ) □ basses □ relevées □ enroulées pat. : ( ) ( ) □ neutre □ insuff. □
cès ( ) □ abdo. □ T.A. □T> □ R. I. ( ) □ neutre □ talons □ méta. □ sur1pied □ bal. ( ) ( ) □ neutre □ proj. □ ext. ( ) □ neutre □ ext. ( ) □ basses □ relevées □ enroulées pat. : ( ) ( ) □ neutre □ insuff. □ excès ( ) □ abdo. □ T.A. □T> □ R. I. ( ) □ neutre □ talons □ méta. □ sur1pied □ bal. ( ) ( ) □ neutre □ proj. □ ext. ( ) □ neutre □ ext.
| 2,517
|
2008LIL10102_8
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,008
|
Analyses fonctionnelle et protéomique du rôle de la O-N-acétylglucosaminylation dans la physiologie du muscle squelettique
|
None
|
French
|
Spoken
| 7,944
| 14,524
|
pCathr pCa50 n1 n2 CONTROLE 6.73±0.07 5.75±0.03 2.60±0.13 2.39±0.22 GlcNAc 0.2 M 6.49±0.05 5.55±0.04 # 2.85±0.26 2.51±0.16 LAVAGE 6.66±0.06 5.63±0.02 # 2.80±0.23 2.27±0.12 Tableau XXI : Paramètres d’activation calcique de fibres isolées de biopsies POST BR exposées à 0,2 M de GlcNAc (n=5). #p<0.01 pCathr pCa50 n1 n2 CONTROLE 6.53±0.11 5.65±0.03 3.23±0.42 2.83±0.45 GlcNAc 0.2 M 6.45±0.10 5.47±0.02 # 3.18±0.46 2.47±0.33 LAVAGE 6.50±0.07 5.60±0.01 2.76±0.52 2.86±0.19
-156© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest)
Pour les biopsies PRE BR et POST BR du groupe BR, la présence de GlcNAc induit une diminution de la sensibilité et de l’affinité calcique des fibres musculaires. En effet, le seuil calcique et la pCa50 diminuent après l’incubation dans 0,2 M de GlcNAc. On retrouve donc ici le même effet de la O-GlcNAc que chez le rat. D’autre part, nos résultats montrent que les variations des pCa50 (contrôle vs GlcNAc 0,2 M) sont légèrement plus importantes avant le bed-rest (U= 0,20) qu’après (U= 0,18). La sensibilité calcique est également plus affectée avant qu’après le bed-rest (U= 0,24 avant le bed-rest et U= 0,08 après le bed-rest). Ces résultats semblent indiquer qu’il pourrait y avoir moins d’interactions protéiques mettant en jeu le motif O-GlcNAc et donc que la glycosylation se plus faible après le bed-rest. Cet effet est réversible puisque lorsqu’on élimine la GlcNAc, les fibres retrouvent partiellement leurs paramètres d’activation calcique d’origine. La coopérativité des protéines régulatrices du filament fin d’actine n’est pas modifiée par la présence de GlcNAc. II – B. Taux global de la O-GlcNAc
Les niveaux de glycosylation ont récemment été décris pour être affectés dans les muscles atrophiés chez le rat (Cieniewski et coll., 2006). Nos résultats démontrent que la OGlcNAc peut moduler les propriétés d’activation calcique des fibres musculaires humaines comme nous l’avions démontré chez le rat (Hédou et coll., 2007). Nous avons donc mesuré les niveaux globaux de glycosylation après le bed-rest. Ces mesures sont faites pour les groupes BR et BR+EXO sur le VL (4 sujets par groupe). Ce muscle a été choisi du fait de la disponibilité du matériel biologique. Les variations de glycosylation sont exprimées en % de variation par rapport au taux initial (figure 63).
-157© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) O -G lcN A c decrease (% ) BR BR+EXO 0 -5 * -3,2% -10 -15 -20 -18,8% -25
Figure 63 : Variations du taux global de la O-GlcNAc par rapport aux biopsies PRE dans le VL après le bedrest. n=4 pour chaque groupe. * Différence statistique entre le groupe BR et le groupe BR+EXO (p<0,05). Pour le groupe BR, la glycosylation des échantillons POST est diminuée de 18,8 % comparée aux biopsies PRE. La glycosylation est inchangée dans le groupe BR+EXO. Nos résultats
semblent donc indiquer que l’atrophie du muscle après bed-rest est accompagnée d’une diminution du taux de O-GlcNAc comme observé chez le soleus de rat après HH
.
L’exercice qui prévient de
l’atrophie musculaire, semble également prévenir cette diminution de glycosylation. II – C. Une balance O-GlcNAc/phosphorylation pourrait réguler l’activité de la MLC2 La O-GlcNAc peut être en interaction voir moduler la phosphorylation des protéines. Cette « balance » entre les deux modifications post-traductionnelles aboutit à ce que des protéines peuvent exister sous de multiples isoformes fonctionnellement distinctes, selon la modification de leur état, à un stade post-traductionnelle (Comer et Hart, 1999). La présence, à la fois, de O-GlcNAc et de phosphate sur une même protéine (sur des sites distincts ou sur le même site) augmenterait fortement le niveau de contrôle que les modifications posttraductionnelle peuvent exercer sur une protéine (Comer et coll., 2000). De tels mécanismes de « balance » entre l’état de phosphorylation et de glycosylation pourraient être à la base de la modulation de l’activité de certaines protéines contractiles dont on sait le rôle crucial de
-158© 2009
Tous
droits
réserv
és.
http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest)
leur état de phosphorylation dans l’activité contractile. L’analyse des états de phosphorylation et de glycosylation des protéines contractiles est donc d’importance pour la compréhension du rôle des modifications post-traductionnelles dans l’activité contractile du muscle. La MLC2 est, dans le muscle squelettique, la seule chaine légère de myosine connue pour pouvoir être phosphorylée, de façon réversible par la Myosin Light Chain Kinase ou MLCK, elle-même dépendante d’une protéine activatrice, la calmoduline. La MLC2 n’est pas impliquée dans le déclenchement de la contraction, mais a un rôle très important pour sa régulation. Il est connu que la phosphorylation de la MLC2 augmente la sensibilité au calcium du myofilament pelé (Persechini et coll., 1985). Nous avons d’autre part montr au laboratoire un polymorphisme de la MLC2 dû à de nombreux états de phosphorylation de cette protéine qui était impliqué dans les changements phénotypiques observés au cours de l’atrophie musculaire (Bozzo et coll., 2003). Dans le cadre de l’expérience bed-rest chez la femme, nous avons voulu répondre à plusieurs questions : i) les états de phosphorylation de la MLC2 dans le muscle humain normal sont-ils identiques à ceux du muscle de rat? Autrement dit, les isoformes de MLC2s et de MLC2f du soleus humain présentent-elles les mêmes états non phosphorylés (s et f) et phosphorylés (s1, s2 et f1) que le soleus de rat? De plus, les isoformes de la MLC2 phosphorylées augmentées (MLC2 S1 et S2) et/ou apparaissant (f1) lors de la transition phénotypique due au bed-rest sont-elle identiques à celles trouvées après HH? Cette étude est réalisé sur des biopsies de soleus PRE et POST bed-rest par électrophorèse bidimensionnelle de la MLC2. ii) Existe-t-il des variations opposées de l’état de glycosylation et de phosphorylation de la MLC2 au cours de l’atrophie et donc un mécanisme de balance Phosphorylation/Glycosylation qui pourrait jouer un rôle dans les changements phénotypiques des chaînes régulatrices de la myosine au cours d’une atrophie fonctionnelle. Ces travaux qui ont fait l’objet de communications orales, font l’objet d’un manuscript en cours de préparation. MLC2 expression and post-translational modifications in human soleus muscle (Stevens L, Hédou J, Montel V, Tiffreau V, Cochon L, Mounier Y and Bastide B).
-159© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) 1) Les changements phénotypiques de la MLC2 au cours du bed-rest
La figure 64 représente les variations de l’expression des isoformes de la MLC2 avant 100 100 PRE BR POST BR 80 % of total MLC2 isoforms % of total MLC2 isoforms et après le bed-rest pour les groupes BR et BR+EXO. * 60 * 40 20 0 MLC2s PRE BR+EXO POST BR+EXO 80 60 40 20 0 MLC2f MLC2s
MLC2f Figure 64: Variations de l’expression des isoformes de la MLC2 avant et après le bed-rest sur des biopsies de soleus de sujets des groupes BR (à gauche) et BR+EXO (à droite). * p<0,05. En condition BR, on observe une transition
phénoty
pique
lent
vers
rapide
pour la MLC2
: ainsi
la MLC2s
diminue de 15,5
% par rapport
à
son taux
initial
alors
que
la MLC2f augment
e de
38 %
.
La MLC2 est
donc sou
mise
à une transition lent
vers
rapide comme cela a été démontré
pour les MHC et les MLC chez le rat au
cours
de
l
’
atrophie
fonctionnelle. Aucune
transition
d’expression n’est observée pour le groupe BR+EXO.
2) Variations de la phosphorylation de la MLC2
Dans un premier temps, nous avons voulu voir si les isoformes de MLC2s et de MLC2f du soleus humain présentaient les mêmes états non phosphorylés (s et f) et phosphorylés (s1, s2 et f1) que le soleus de rat. Cette étude est réalisée sur des échantillons de soleus contôle PRE BR par la technique d’électrophorèse bidimensionnelle (figure 65).
-160© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) A. B. 4 7 s s1 s2 C.
f f1 Figure 65 : Séparation par électrophorèse bidimensionnelle et révélation par werstern blot des variants des isoformes de la MLC2 (lente « s » et rapide « f »), sur des biopsies de soleus de sujets du groupe BR. A. Séparation avant le bed-rest. B. S
après une incubation dans la phosphatase alkaline.. C. Séparation après le bed-rest. Les variants de la MLC2s sont notés s1 et s2 et les variants de la MLC2f sont notés f et f1
Chez l’humain, dans le soleus, la MLC2s présente trois variants: s, s1 et s2 et la MLC2f deux : f et f1 (figure 65A). Chez le rat, on retrouve tous ces variants sauf s2 qui est absent du soleus en condition contrôle (Bozzo et coll., 2003). Après un traitement à la phosphatase (figure 65B), les électrophorèses 2D révèlent que la proportion de s1 est réduite et que les deux spots les plus acides (s2 et f1) disparaissent entièrement. Comme chez le rat, les trois variants s1, s2 et f1 sont donc des formes phosphorylées de la MLC2. Les isoformes de MLC2s et de MLC2f du soleus humain présentent donc les mêmes états non phosphorylés (s et f) et phosphorylés (s1, s2 et f1) que le soleus de rat. Nous avons cherché à définir si les transitions d’expression de la MLC2 observées après le bed-rest étaient associées à des variations de l’état de phosphorylation de cette protéine. L’étude est réalisée pour les groupes BR et BR+EXO sur des soleus PRE et POST BR par électrophorèse bidimensionnelle de la MLC2 (figures 65 et 66 et tableau XXII). Le groupe BR+EXO nous permet de tester l’effet exercice sur le maintien des états de phosphorylation de la MLC2.
-161© 2009 Tous droits réservés
. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest)
Figure 66 : Représentation graphique des changements de la proportion des variants de la MLC2S et de la MLC2f dans le soleus en conditions BR et BR+EXO. Les données, obtenues par analyse densitométrique des gels electrophorétiques 2D, représentent le pourcentage de la distribution des variants de la MLC2 par rapport au total en MLC2s ou en MLC2f.
-162© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie
: La
O-Glc
NAc et l’atrophie musculaire (le bed-rest)
Tableau XXII: Proportion relative de chaque variant des isoformes de la MLC2 dans le soleus en conditions BR et BR+EXO. Les données, obtenues par densitométrie des westerns blot anti MLC2 des gels electrophorétiques 2D, représentent le pourcentage de la distribution des variants de la MLC2 par rapport au total en MLC2s ou en MLC2f. * p<0,05. POST PRE MLC2s MLC2s1 86.75±2.29 10.5±1.55 MLC2s2 BR MLC2f 2.75±1.03 77.75±3.3 -10.37* 15.75±2.06 +50* 6.5±1.26 +136.36* 94.25±2.02 84.75±4.09 -10.08* 5.75±2.02 15.25±4.09 +165.22* MLC2f1 BR+EXO POST/PRE (%) MLC2s 87.50±1.04 84.5±2.1 NS MLC2s1 10.5±0.87 12.75±1.7 NS MLC2s2 2±0.82 2.75±1.6 NS MLC2f 95.75±1.65 93.25±2.78 NS MLC2f1 4.25±1.65 6.75±2.78 NS
Avant le bed-rest, la MLC2s montre la distribution suivante ; s représente 86,75 % du total en MLC2s, s1, 10,5 % et s2, 2,75 % (tableau XXII). La MLC2f présente quant à elle cette distribution : f représente 94,25 % et f1 représente 5,75 % du total en MLC2f (tableau XXII). Après le bed-rest, la proportion relative de s diminue de 10, 37 %, celles de s1 et s2 augmentent de respectivement 50 % et 136, 36 % (tableau XXII). De même, la proportion de f diminue de 10,08 % et celle de f1 augmente de 165,22 % (tableau XXII). Après le bed-rest, les formes phosphorylées s1, s2 et f1 sont donc plus fortement exprimées. Le taux de phosphorylation de la MLC2 augmente donc après le bed-rest. Ces résultats sont en accord avec ceux trouvés au laboratoire chez le rat HH (Bozzo et coll., 2003). Aucune variation de phosphorylation de la MLC2 est observée chez les individus BR+EXO. Le protocole d’exercice maintien donc l’état de phosphorylation de la MLC2 du muscle soleus (tableau XXII).
-163© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) 3) Variations de l’état de glycosylation de la MLC2 au cours du bed-rest
Pour les groupes BR et BR+EXO, les variations du taux de O-GlcNAc des protéines contractiles du soleus ont été déterminées avant et après bed-rest en réalisant des immunoblots à l’aide d’un anticorps spécifique dirigé contre une séquence définie O-GlcNAc (figure 67). Le signal glycosylé pour chaque isoforme est normalisé en fonction du niveau global de glycosylation de la MLC2.
A C. EXO B. * Figure 67 : Etats de glycosylation des isoformes de la MLC2 avant et après bed-rest sur des biopsies de soleus de sujets des groupes BR et BR+EXO. A. Pour l’isoforme lente de la MLC2 B
Pour l’isoforme rapide de la MLC2. C. Analyse de la glycosylation des protéines contractiles par immunoblot à l’aide d’un anticorps monoclonal dirigé contre la O-GlcNAc (RL-2). ** p<0,02. EXO -164© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest
) Tableau XXIII
: Etats de glycosylation des différents isoformes de la MLC2 avant et après le bed-rest pour les sujets du groupe BR et BR+EXO. ** p<0,02. PRE POST POST/PRE (% de variations) 41.71±5.4 34.91±5.34 -16.3 ** 58.27±5.4 65.06±5.34 +11.65 ** 42.32±3.19 39.76±3.19 NS 57.68±3.19 60.24±2.65 NS BR BR+EXO
Le taux de glycosylation de chaque isoforme de MLC2 varie en accord avec les modifications d’expression de chaque isoforme. Pour la MLC2s, on observe une diminution de 16,3 % de glycosylation quand l’expression de la MLC2s diminue de 15,5 %. L’état de glycosylation de la MLC2f augmente de 11,5 % alors que son niveau d’expression augmente de 38 %. Il y a donc une même diminution d’expression et de glycosylation de la MLC2s. Par contre, l’augmentation de l’expression de la MLC2f est plus importante que l’augmentation de son état de glycosylation. Il en résulte donc globalement une diminution du taux de glycosylation de la MLC2 après BR. Aucune variation de glycosylation n’est observée pour le groupe BR+EXO, en analogie avec les résultats obtenus pour la variation d’expression des isoformes lentes et rapides de MLC2 de ce groupe.
-165© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) Tableau XXIV
: Récapitulatif des variations (%) en expression, en glycosylation et en phosphorylaton des variants de la MLC2 en conditions BR et BR+EXO.* p<0,05. BR Protein expression Glycosylation Phosphorylation BR+EXO MLC2s -15.5 NS MLC2f +38 NS MLC2s -16.3 NS MLC2f +11.7 NS MLC2s -10.37 NS MLC2s1 +50 NS MLC2s2 +136.36* NS MLC2f -10.08 NS MLC2f1 +165.22* NS
III. Discussion • Atrophie et O-GlcNAc
Ces travaux montrent les effets d’un alitement prolongé de deux mois, le bed-rest qui est un modèle de microgravité simulée chez l’humain (campagne WISE), sur les propriétés du muscle soléaire chez la femme. La spécificité de cette étude est d’évaluer la contribution de nouveaux paramètres (phosphorylation et O-N-Acétylglucosaminylation) sur la perte de force et la perte de masse observées au cours du processus d’atrophie musculaire. De plus, ces expériences ont permis de tester l’efficacité d’une contremesure : un protocole d’exercices comprenant des exercices résistifs et aérobiques. L’atrophie musculaire consécutive à une période de bed-rest à déjà été décrite. Nos travaux ont permis de confirmer cette atrophie chez des patientes féminines. Le premier point intéressant de cette étude concerne la réponse morphologique adaptative des fibres. Pour le groupe BR, les fibres lentes et rapides sont atrophiées au même degré dans le soleus et le VL -166© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie
: La
O-GlcNAc et l’atrophie musculaire (le bed
-
rest
) après le bed-rest. Ces résultats ont également été décrits pour cette campagne WISE (Trappe et coll., 2007b). Des résultats similaires ont été obtenus chez l’homme (Dudley et coll., 1989 ; Trappe et coll., 2004) et permettent de conclure que les réponses adaptatives des muscles squelettiques au bed-rest chez l’humain ne sont pas fonction du type de fibres. C’est important puisque, durant les vols spatiaux chez l’Homme comme les animaux (rat ou singes) ou durant la microgravité simulée obtenue avec des rats HH, les fibres de type I sont plus sensibles à l’atrophie que les fibres de types II (Edgerton et coll., 1995 ; Fitts et coll., 2000 ; Stevens et coll., 1993). Pour le groupe BR, les forces maximales absolues Po, déclinent. Cet effet, observé dans l’ensemble des muscles (soleus et VL), est plus marqué pour les fibres lentes que les fibres rapides et peut-être attribué en partie à l’atrophie des fibres attestée par la diminution du diamètre des fibres. La force spécifique fonction de la surface (Po/CSA) est diminuée pour les fibres lentes de 26 % et 19 % respectivement dans le soleus et le VL. Ces données sont en accord avec des résultats obtenus après deux mois (Yamashita-Goto et coll., 2001) et trois mois de bed-rest (Trappe et coll., 2004). Cette diminution de la force spécifique ne peut être attribuée à l’atrophie musculaire car dans ce cas, les forces spécifiques seraient égales avant et après le bed-rest comme c’est le cas pour les fibres rapides. Plusieurs mécanismes peuvent expliquer cette perte de force dans les fibres lentes. Une première hypothèse serait une diminution du nombre de pont par unité de surface. En effet, la force spécifique dépend du nombre de ponts formés entre les filaments épais de myosine et fins d’actine par unité de surface. Après un bed-rest de 17 jours, Riley et coll., (1998) observent une diminution de la densité des filaments fins mais pas des filaments épais, et attribue à cette augmentation du « filament spacing », la diminution de la force spécifique. Cependant, nos résultats montrent que le niveau d’expression de l’actine n’est pas modifié après le bed-rest dans notre étude (résultats non montrés), ce qui suggère que le rapport entre les filaments fins et épais n’est pas altéré et donc que le nombre de ponts formés n’est pas modifié après bed-rest. Une autre possibilité pouvant expliquée la perte de force spécifique serait une moins bonne habilité de chaque pont à développer la force. Un autre facteur pouvant affecter sa force est la sensibilité calcique des fibres. Nous démontrons ici que pour le groupe BR, les fibres rapides ne présentent pas de changement de sensibilité calcique (les relations T/pCa PRE et POST BR sont superposées) alors que les fibres lentes présentent une diminution de sensibilité calcique (la relation T/pCa POST BR est shiftée à droite par rapport à la relation -167
© 2009
Tous
droit
s
réservés
. http://doc.univ-lille1.fr Thèse de Julie Hédou,
Lille
1,
2008
Troisième
partie
: La O-GlcNA
c et l’atrophie musculaire
(
le bed-rest) T/pCa PRE
BR) ce qui pourrait induire
cette perte
de force spécifique dans
les fibres lentes du sole
us
et du
VL
. Un autre mécanisme susceptible de modifier la production de force pourrait intervenir: il s’agit du niveau de glycosylation des différentes protéines impliquées dans la contraction musculaire (Hédou et coll., 2007). Nous avons démontré une diminution du taux global de OGlcNAc pour le groupe BR. Cette diminution pourrait altérer la recapture du glucose via l’insuline dans les muscles squelettiques (Stuart et coll., 1988) et participer à la résistance à l’insuline dans lequel la O-GlcNAc est fortement impliquée, observée au cours de l’atrophie musculaire. Cependant, une diminution du taux de O-GlcNAc est également observée chez le rat HH bien qu’une augmentation de la sensibilité à l’insuline ait été décrite dans ce modèle (Langfort et coll., 1997). Nous avons démontré aussi une diminution du niveau de O-GlcNAc dans les soleus atrophiés chez les rats HH (Cieniewski-Bernard et coll., 2006) et le rôle potentiel de la O-GlcNAc dans la régulation de l’affinité calcique (Hédou et coll., 2007). Par conséquent, ce facteur, qui n’a pas encore été étudié jusqu’à présent chez l’humain, pourrait être impliqué dans la régulation de la contraction musculaire et le développement de la force de contraction et donc être impliqué dans les pertes de force observées dans les fibres lentes. Dans le groupe BR+EXO, toutes les fibres du VL, lentes ou rapides, maintiennent leur diamètre initial. Dans l’ensemble des muscles, les forces maximales et les propriétés d’activation calcique sont préservées ou même augmentées. Cette prévention pourrait mettre en jeu le maintien du phénotype des différentes protéines contractiles (dans les biopsies entières ou les fibres isolées), attesté ici par le profil d’expression des MLC2 qui n’est pas modifié pour le groupe BR+EXO. Le maintien du niveau de glycosylation (mesuré dans le VL) dans le groupe BR+EXO pourrait également être impliqué. Ainsi, des données récentes ont démontré que la O-GlcNAc pouvait avoir un rôle protecteur contre la dégradation protéasomale et donc dans le développement de l’atrophie (Cieniewski-Bernard et coll., 2004). Un impact bénéfique de l’activité physique sur le syndrome de la résistance à l’insuline dont on sait qu’il est fortement modulé par la O-GlcNAc (Hedman et coll., 2002) a également été décrit, l’exercice étant un stimulateur du transport du glucose (Zierath et coll., 1995).
• Plasticité des MLC2 : balance phosphorylation/glycosylation
Pour les sujets du groupe BR, nos travaux démontrent que l’atrophie fonctionnelle observée chez l’humain s’accompagne d’un changement phénotypique lent vers rapide de la MLC2. En effet, pour le groupe BR, la MLC2s diminue de 15,5 % et la MLC2f augmente de 38 -168© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) % après le bed-rest. Ces ré sont en accord avec les données obtenues chez le rat HH. Ces changements d’expression associés au rôle modulateur des MLC dans le fonctionnement de la tête S1 des MHC, contribuent sans doute aux adaptations phénotypiques du muscle lors de l’atrophie fonctionnelle. Nous montrons par ailleurs, que ces changements phénotypiques s’accompagnent d’une augmentation de l’expression des formes phosphorylées de la MLC2 ; s1, s2 et f1 qui augmentent respectivement de 50 %, 136,36 % et 165,22 %, et d’une variation des taux de O-GlcNAc de la MLC2. Ainsi, la glycosylation de la MLC2S diminue de 16,3 % et celle de la MLC2f augmente de 11,7 %. Ces variations semblent suivre le changement phénotypique de la protéine sauf pour la MLC2f où l’augmentation de la glycosylation est nettement moins importante que l’augmentation de l’expression de la MLC2f. Pour le groupe BR, nous démontrons ainsi que le taux de O-GlcNAc de la MLC2 diminue alors que parallèlement sa phosphorylation augmente. Pour le groupe BR+EXO, aucune variation de ces modifications post-traductionnelles n’est observée. Ces résultats suggèrent donc qu’il existe une balance O-GlcNAc/phosphorylation régulant les changements phénotypiques de la MLC2. Le rôle de la glycosylation de la MLC2 n’est pas encore connu. La détermination précise du ou des sites pourrait permettre de mieux comprendre son implication, à savoir si le site modifié est identique ou différent du site décrit comme phosphorylé. La phosphorylation de la MLC2 quant à elle, module l’interaction actomyosine (Perrie et coll., 1973) et augmente la sensibilité des fibres pelées et la force de développement (Persechini et coll., 1985). Si la O-GlcNAc était en interférence avec la phosphorylation, elle pourrait induire une diminution de sensibilité calcique des fibres. Ainsi cette diminution de glycosylation de la MLC2 ne semble pas pouvoir être impliquée dans la baisse de sensibilité et d’affinité calcique observée dans les modèles d’atrophie fonctionnelle. D’ailleurs, Bozzo et coll., (2003) ont montré que la phosphorylation de la MLC2 était reliée de façon étroite aux changements phénotypiques musculaires, avec une diminution de phosphorylation lors d’une transition rapide vers lent, et une augmentation lors d’une transition lent vers rapide sans être impliquée dans les changements d’affinité calcique. Ainsi, une augmentation de phosphorylation est observée après HH comme après un traitement par un ȕ2 agoniste, le clenbutérol chez le rat, bien que dans ce dernier modèle, on observe une augmentation de sensibilité et d’affinité calcique. Même si on ne connait pas le rôle exact de la O-GlcNACylation de la MLC2, on sait que la O-GlcNAc est connue pour agir de manière analogue à la phosphorylation et qu’elle pourrait moduler les états de phosphorylation de la protéine par un phénomène « ying-yang » (Cheng et coll., 2000). Dans le cas de la MLC2, on peut donc envisager que ces deux modifications post-traductionnelles puissent se réguler -169© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
Troisième partie : La O-GlcNAc et l’atrophie musculaire (le bed-rest) mutuellement pour moduler l’activité et les propriétés des MLC2 mais plus probablement moduler l’expression des isoformes de cette protéine. Un rôle de cette balance dans l’interaction MLC2 et MHC pourrait être envisagé tout comme un rôle dans le processus de dégradation des isoformes au cours de la transition phénotypique. -170© 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
CONCLUSION ET PERSPECTIVES
La O-N-acétylglucosaminylation ou O-GlcNAc, est une glycosylation dynamique cytosolique et nucléaire impliquée dans de nombreuses fonctions cellulaires tels que le transport cellulaire, la dégradation protéique, la régulation de l’expression des protéines... Elle semblerait également jouer un rôle important dans un certain nombre de pathologies comme le cancer, les maladies neurodégénératives, le diabète. Ce travail de thèse a porté sur l’étude de la O-GlcNAc dans le muscle squelettique, tissu dans lequel son rôle n’avait été jusqu’ici qu’abordé dans une problématique de résistance à l’insuline et du rôle du muscle dans la régulation du métabolisme du glucose. De récents travaux réalisés au laboratoire ont permis de démontrer que la O-GlcNAc pourrait être impliquée dans la physiologie musculaire et l’activité contractile. Ainsi par une approche protéomique, de nombreuses protéines clés impliquées dans le métabolisme et la contraction musculaire comme la MHC (Myosin Heavy Chain) ont été identifiées comme O-GlcNAc (Cieniewski-Bernard et coll., 2004), certaines de ces protéines étant des marqueurs précoces de la plasticité musculaire. D’autres travaux ont permis de démontrer que la O-GlcNAc semblait être impliquée dans le métabolisme des protéines au cours de l’atrophie fonctionnelle induite par le modèle d’hypodynamie-hypokinésie chez le rat, puisque les taux de O-GlcNAc sont corrélés au degré d’atrophie du muscle après HH. Cette variation du taux de O-GlcNAc, associée à une augmentation de l’expression de la protéine de choc thermique HSP70, ne de la OGlcNAc, qui peut prévenir les protéines modifiées de la dégradation par le protéasome, pourrait prévenir la dégradation des protéines et donc l’atrophie musculaire induite par HH. Ces différents résultats nous ont amené à définir si la O-GlcNAc jouerait un rôle dans la contraction musculaire et régulerait l’activité de certaines protéines notamment au cours de l’atrophie fonctionnelle. Notre travail s’est articulé autour de trois axes démontrant l’importance exercée par la O-GlcNAc dans le muscle squelettique. La première partie de nos recherches a consisté en une identification des protéines O-GlcNAc musculaires et à mettre en évidence l’implication de la O-GlcNAc dans le processus contractile. La seconde partie de notre travail a eu pour objectif d’identifier les sites O-GlcNAc sur les protéines contractiles pour mieux comprendre le rôle de cette glycosylation dans le processus contractile des fibres musculaires et l’existence d’une possible interaction entre la phosphorylation et la glycosylation de ces protéines. Enfin, dans une troisième partie nous avons mis en évidence la possible implication de la O-GlcNAc et de la balance glycosylation/phosphorylation dans la régulation de l’atrophie musculaire dans un modèle d’atrophie fonctionnelle chez l’humain. L’ensemble des
-171 © 2009 Tous droit
s
réservés
. http://
doc.univ-lille
1.
fr Thèse
de Julie Hédou,
Lille
1, 2008 CONCL
USION ET PERSPECTIVES
résultats obtenus démontre l’importance que cette modification post-traductionnelle peut jouer dans la physiologie musculaire. Le rôle de la O-GlcNAc semblerait ainsi tout aussi important que celui de la phosphorylation avec laquelle la O-GlcNAc pourrait être en compétition. L’analyse du rôle de la O-GlcNAc devra être approfondie dans les années futures. La compréhension du rôle de cette modification dans deux processus aussi important que la contraction et l’atrophie musculaire devrait permettre également d’envisager une implication de cette modification dans certaines pathologies musculaires.
I. Identification des protéines contractiles et rôle de la O-GlcNAc dans la contraction musculaire
Nous avon pu démontré par une nouvelle approche protéomique combinant des techniques de purification des protéines contractiles du muscle, de chromatographie d’affinité, de GC-MS que la chaîne lourde de myosine (Cieniewski-Bernard et coll., 2004), ainsi que l’actine, la tropomyosine et les chaînes légères de myosine (essentielle et régulatrice) étaient modifiées par la O-GlcNAc. Par ailleurs, nos résultats montrent clairement que la O-GlcNAc libre ou engagée dans des interactions protéiques, joue un rôle dans l’activité contractile du muscle squelettique en modulant les propriétés d’activité calcique des fibres musculaires. Ces travaux montrent donc pour la première fois, un rôle potentiel de la O-GlcNAc dans la régulation de l’activité contractile et un rôle potentiel dans la régulation de la force de contraction. Nos travaux ont juste porté sur le rôle des motifs O-GlcNAc impliqués ou non dans des interactions protéine-protéine. Par conséquent nous ne connaissons pas les effets d’une diminution ou d’une augmentation des niveaux de glycosylation des protéines contractiles. Nos travaux seront donc poursuivis suivant plusieurs stratégies. • La première approche consistera à analyser l’effet d’une hyperglycosylation sur les propriétés d’activation calcique des fibres musculaires. Pour cette étude, nous réaliserons une organo-culture de muscle soleus et d’epithroclearis (un muscle rapide choisi car très peu épais et facile a cultiver) en présence ou absence d’un inhibiteur spécifique de la O-GlcNAcase (le PUGNAc), l’enzyme qui dégrade les motifs O-GlcNAc, afin d’augmenter sélectivement le taux de O-GlcNAc dans les fibres musculaires. L’état de glycosylation de la biopsie sera analysé après traitement par immunoblot à l’aide d’un anticorps spécifique de la O-GlcNAc. L’analyse fonctionnelle des fibres musculaires sera réalisée par une étude des propriétés d’activation calcique et l’analyse des vitesses de raccourcissement des fibres selon la technique de slack
-172 © 2009 Tous droit
s
réserv
és.
http://doc.univ-lille1.fr Thèse de Julie Hédou
Lille 1, 2008 CONCLUSION ET PERSPECTIVES
test. Des études préliminaires ont permis de déterminer la faisabilité de la conservation des bandelettes de muscle dans un bon état physiologique après 12 heures d’incubation, les propriétés contractiles et d’activation calcique étant similaires à celles d’une biopsie classique. • La deuxième approche consistera à diminuer le taux de O-GlcNAc de la biopsie en l’incubant en présence d’alloxan, un inhibiteur de la O-GlcNAc transferase. Les mêmes approches fonctionnelles que précédemment seront envisagées pour analyser les conséquences fonctionnelles de cette diminution de glycosylation. • La troisième approche correspondra à l’utilisation de culture de myotubes : Cette analyse sera réalisée à partir de cultures primaires de myotubes. Cette stratégie permettra à la fois de modifier et de faire varier l’état de glycosylation et de phosphorylation des protéines étudiées, tout en permettant d’analyser à la fois les propriétés contractiles, les flux calciques au sein de la cellule. Une analyse structurale sera également effectuée pour déterminer l’intégrité de la structure des fibres musculaires. L’augmentation ou la diminution du taux de O-GlcNAc sur cultures primaires de myotubes nous permettra également de comprendre le rôle de cette modification post-traductionnelle dans la physiologie contractile. Le taux de O-GlcNAc sera augmenté par culture des myotubes en présence de glucosamine, intervenant dans la voie de biosynthèse des hexosamines, et/ou en présence de PUGNAc, un inhibiteur spécifique de la O-GlcNAcase ; inversement, le taux de O-GlcNAc sera diminué par ajout dans le milieu de culture d’azasérine, inhibiteur de la glutamine-fructose-6-P-amidotransférase (GFAT), enzyme limitante de la voie de biosynthèse des hexosamines, ou en présence d’alloxan, inhibiteur de la O-GlcNAc transférase. Différents types d’analyse seront envisagés sur les cultures primaires de myotubes lors de l’application des protocoles permettant de modifier le degré de glycosylation des protéines, en particulier : - une analyse de l’intégrité sarcomérique par des techniques d’immunohistochimie. Il sera également nécessaire de déterminer si les protéines structurales du sarcomère, telles que l’actinine, la titine, etc..., sont modifiées par la O-GlcNAc. L’identification de ces protéines de structure se fera par spectrométrie de masse ; - une analyse fonctionnelle, notamment la mesure de l’activité contractile par mesure des variations des flux calciques intracellulaires. La variation de calcium intracellulaire lors de stimulations électriques sera réalisée à l’aide de l’indo1. Les mesures de calcium seront effectuées dans le cadre de la plate forme d’imagerie calcique du centre commun d’imagerie cellulaire (CCMIC) de l’IFR 147.
-173- © 2009
Tous
droits réservés
. http://
doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
CONCLUSION ET PERSPECTIVES
- une analyse du métabolisme énergétique du muscle grâce à des techniques classiques de biochimie par mesure de certains produits des voies métaboliques pour lesquelles des enzymes clé ont été décrites comme modifiées par la O-GlcNAc. Il s’agira en particulier du dosage de la créatine phosphate (pour la voie de régénération rapide de l’ATP), du pyruvate et du lactate (pour les voies glycolytiques aérobie et anaérobie), ainsi que du glucose-1-phosphate et du glucose-6-phosphate (pour le métabolisme du glycogène). Ces différents métabolites seront mesurés par des techniques enzymatiques et colorimétriques, ou par l’utilisation de l’HPLC ou de chromatographie
phase gazeuse couplée à la spectrométrie de masse. II. Identification des sites O-GlcNAc par la BEMAD
La deuxième partie de notre travail a consisté à identifier précisément les sites OGlcNAc des protéines contractiles par une approche protéomique : la BEMAD. Grâce à cette technique, nous avons identifié plusieurs sites O-GlcNAc sur deux protéines clés de la machinerie contractile du muscle squelettique, l’actine et la myosine. Un site a été localisé sur la séquence 198-207 de l’actine et quatre autres ont été identifiés dans la partie hélicoïdale de la région carboxy-terminale de la myosine et correspondent aux séquences 1094-1106 ; 12951303 ; 1701-1712 ; 1913-1922. Ces sites pourraient être impliqués dans des interactions protéine-protéine (par exemple entre l’actine et la tropomyosine, ou la myosine et des protéines) et également jouer un rôle dans la modulation des propriétés contractiles du muscle squelettique. Un second rôle dans la polymérisation des protéines est aussi suspecté. La TnC est une protéine du complexe des troponines qui joue un rôle fondamental dans la régulation calcique de la contraction. Les modulations des propriétés d’activation calcique par la O-GlcNAc pourrait impliquer cette protéine soit en modulant son interaction vis-à-vis des autres protéines du filament fin, soit en modifiant les propriétés même de cette protéine. Il sera donc nécessaire de déterminer si les troponines sont modifiées par le motif O-GlcNAc. Il sera également important d’identifier d’autres sites modifiés par un groupement OGlcNAc et/ou phosphate au niveau des protéines contractiles en particulier pour les MLC. L’acquisition récente d’un spectromètre de masse de type FT-ICR-MS sur le Plateau Commun de Spectrométrie de Masse (USTL) de t permettre de mener à bien la détermination de la localisation précise du/des site(s) modifiés sur les protéines d’intérêt. Nous envisagerons également de réutiliser la technique BEMAD en affinant certaines étapes -174 © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 CONCLUSION ET PERSPECT
IVE
S
afin d’augmenter la sensibilité de notre protocole. En effet un certain nombre d’autres sites concernant d’autres protéines contractiles ont été détectés lors de nos expériences mais n’ont pas pu être confirmés sans ambigüité ce qui suggère que l’on doive améliorer la reproductibilité de l’identification.
III. Implication de la O-GlcNAc dans la physiologie contractile humaine
Dans cette troisième partie, nous montrons les effets d’un alitement prolongé ou BR de deux mois, un modèle de microgravité simulée chez l’humain (campagne WISE), sur les propriétés du muscle soléaire et du vastus lateralis (VL) chez la femme. Après BR, les fibres musculaires rapides et lentes de soleus comme de VL présentent une atrophie marquée mais également une perte de force. La baisse de la force spécifique (Po/Csa) des fibres lentes met sans doute en jeu la diminution de la sensibilité et de l’affinité calcique des fibres lentes. L’ensemble de ces paramètres reste normal pour le groupe de patientes ayant poursuivi un protocole d’exercice qui s’avère une contre mesure efficace contre le développement de l’atrophie comme des modifications phénotypiques. Nos résultats ont également permis de démontrer que l’on retrouvait une diminution du taux de O-GlcNAc dans le muscle VL atrophié comme précédemment décrit chez le rat ce qui suggère que la O-GlcNAc puisse être impliquée dans le développement de l’atrophie. Pour les sujets du groupe BR, nos travaux démontrent que l’atrophie fonctionnelle observée chez l’humain s’accompagne d’un changement phénotypique lent vers rapide de la MLC2 accompagné d’une augmentation des états de phosphorylation similaires à ceux décrits dans un modèle d’atrophie fonctionnelle chez le rat. Pour le groupe BR, nous démontrons aussi que le taux de O-GlcNAc de la MLC2 diminue alors que parallèlement sa phosphorylation augmente. On peut donc envisager que ces deux modifications posttraductionnelles puissent se réguler mutuellement pour moduler l’activité et les propriétés des isoformes de MLC2 ou moduler l’expression des isoformes de cette protéine. Il sera donc très intéressant de déterminer le/les site(s) précis modifié(s) par la O-GlcNAc afin de mieux comprendre le rôle de cette modification sur les propriétés de la MLC2 et de déterminer le rôle régulateur de la glycosylation de la MLC2 par une analyse fonctionnelle en utilisant la technique des fibres pelées après modulation de son état de glycosylation. Il sera également d’un grand intérêt de déterminer s’il existe une balance phosphorylation/O-GlcNAc au niveau des protéines des voies de signalisation cellulaire. Il a
-175 © 2009 Tous droits réservés
. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008
CONCLUSION
ET
PERSPECTIVE
S
été démontré que la voie de signalisation PI3K-Akt est impliquée dans les phénomènes d’hypertrophie et d’atrophie du muscle squelettique, l’activation correspondant à une phosphorylation de PI3K et Akt qui vont phosphoryler et activer mTor. De récents travaux ont démontré que certains facteurs impliqués dans cette voie de signalisation tels que PI3K, Akt GS3Kβ ou FOXO sont modifiés par la O-GlcNAc (Zachara and Hart, 2004). Or nos travaux ont montré que la diminution du taux de O-GlcNAc était associée au développement de l’atrophie chez le rat comme chez l’humain. Il serait donc intéressant de déterminer s’il existe une modulation de l’état d’activation des voies de signalisation cellulaire et donc une modulation de leur niveau de phosphorylation par une balance O-GlcNAc/Phosphorylation. Ces travaux seront poursuivis par l’utilisation de techniques d’immunoprécipitation de la protéine d’intérêt suivie d’une analyse par immunoblot dans un modèle d’atrophie chez l’animal le rat
HH. -176 ©
2009
Tous
droits réservés
.
http
://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Chapitre VI © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Références Adams GR, Caiozzo VJ, and Baldwin KM. 2003. Skeletal muscle unweighting: spaceflight and ground-based models. J Appl Physiol 95:2185-2201. Adelstein RS and Klee CB. 1981. Purification and characterization of smooth muscle myosin light chain kinase. J Biol Chem 256:7501-7509. Akimoto Y, Comer FI, Cole RN, Kudo A, Kawakami H, Hirano H, and Hart GW 2003. Localization of the O-GlcNAc transferase and O-GlcNAc-modified proteins in rat cerebellar cortex. Brain Res 966:194-205. Akimoto Y, Hart GW, Wells L, Vosseller K, Yamamoto K, Munetomo E, OharaImaizumi M, Nishiwaki C, Nagamatsu S, Hirano H, and Kawakami H. 2007. Elevation of the post-translational modification of proteins by O-linked N-acetylglucosamine leads to deterioration of the glucose-stimulated insulin secretion in the pancreas of diabetic GotoKakizaki rats. Glycobiology 17:127-140. Amphlett GW, Vanaman TC, and Perry SV. 1976. Effect of the troponin C-like protein from bovine brain (brain modulator protein) on the Mg2+-stimulated ATPase of skeletal muscle actinomyosin. FEBS Lett 72:163-168. Alberts, B., Bray, D., Lewis, J., Raff, M., Roberts, K, and Watson, J.D. 1993. Biologie moléculaire de la cellule. Deuxième édition. Edition Médecine-Science Flammarion, 1219p. Arnold CS, Johnson GV, Cole RN, Dong DL, Lee M, and Hart GW. 1996. The microtubule-associated protein tau is extensively modified with O-linked Nacetylglucosamine. J Biol Chem 271:28741-28744. Arvanitis DL, Arvanitis LD, Panourias IG, Kitsoulis P, and Kanavaros P. 2005. Mitochondria-rich normal, metaplastic, and neoplastic cells show overexpression of the epitope H recognized by the monoclonal antibody H. Pathol Res Pract 201:319-324. -177- © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Auerbach D, Bantle S, Keller S, Hinderling V, Leu M, Ehler E, and Perriard JC. 1999. Different domains of the M-band protein myomesin are involved in myosin binding and M-band targeting. Mol Biol Cell 10:1297-1308. Babu A, Scordilis SP, Sonnenblick EH, and Gulati J. 1987. The control of myocardial contraction with skeletal fast muscle troponin C. J Biol Chem 262:5815 22. Baldwin KM, Herrick RE, and McCue SA. 1993. Substrate oxidation capacity in rodent skeletal muscle: effects of exposure to zero gravity. J Appl Physiol 75:2466-2470. Ball LE, Berkaw MN, and Buse MG. 2006. Identification of the major site of O-linked beta-N-acetylglucosamine modification in the C terminus of insulin receptor substrate-1. Mol Cell Proteomics 5:313-323. Bastide B, Kischel P, Puterflam J, Stevens L, Pette D, Jin JP, and Mounier Y. 2002. Expression and functional implications of troponin T isoforms in soleus muscle fibers of rat after unloading. Pflugers Arch 444:345-352. Benko DM, Haltiwanger RS, Hart GW, and Gibson W. 1988. Virion basic phosphoprotein from human cytomegalovirus contains O-linked N-acetylglucosamine. Proc Natl Acad Sci U S A 85:2573-2577. Bertram L, Blacker D, Mullin K, Keeney D, Jones J, Basu S, Yhu S, McInnis MG, Go RC, Vekrellis K, Selkoe DJ, Saunders AJ, and Tanzi RE. 2000. Evidence for genetic linkage of Alzheimer's disease to chromosome 10q. Science 290:2302-2303. Biesiadecki BJ, Chong SM, Nosek TM, and Jin JP. 2007. Troponin T core structure and the regulatory NH2-terminal variable region. Biochemistry 46:1368-1379. Blatch GL and Lassle M. 1999. The tetratricopeptide repeat: a structural motif mediating protein-protein interactions. Bioessays 21:932-939. Blumenschein TM, Tripet BP, Hodges RS, and Sykes BD. 2001. Mapping the interacting regions between troponins T and C. Binding of TnT and TnI peptides to TnC and NMR mapping of the TnT-binding site on TnC. J Biol Chem 276:36606-36612. Blumenthal DK and Stull JT. 1980. Activation of skeletal muscle myosin light chain kinase by calcium(2+) and calmodulin. Biochemistry 19:5608-5614. Boehmelt G, Wakeham A, Elia A, Sasaki T, Plyte S, Potter J, Yang Y, Tsang E, Ruland J, Iscove NN, Dennis JW, and Mak TW. 2000. Decreased UDP-GlcNAc levels abrogate proliferation control in EMeg32-deficient cells. EMBO J 19:5092-5104. 178 © 2009 Tous droits réservés. http://doc.univ-l 1.fr Thèse de Julie Hédou, Lille 1, 2008 Booth FW. 1994. Terrestrial applications of bone and muscle research in microgravity. Adv Space Res 14:373-376. Bortolotto SK, Cellini M, Stephenson DG, and Stephenson GM. 2000. MHC isoform composition and Ca(2+)or Sr(2+)-activation properties of rat skeletal muscle fibers. Am J Physiol Cell Physiol 279:C1564-C1577. Bottinelli R, Coviello DA, Redwood CS, Pellegrino MA, Maron BJ, Spirito P, Watkins H, and Reggiani C. 1998. A mutant tropomyosin that causes hypertrophic cardiomyopathy is expressed in vivo and associated with an increased calcium sensitivity. Circ Res 82:106-115. Bozzo C, Stevens L, Toniolo L, Mounier Y, and Reggiani C. 2003. Increased phosphorylation of myosin light chain associated with slow-to-fast transition in rat soleus. Am J Physiol Cell Physiol 285:C575-C583. Bozzo C, Stevens L, Bouet V, Montel V, Picquet F, Falempin M, Lacour M, and Mounier Y. 2004. Hypergravity from conception to adult stage: effects on contractile properties and skeletal muscle phenotype. J Exp Biol 207:2793-2802. Breitbart RE, Nguyen HT, Medford RM, Destree AT, Mahdavi V, and Nadal-Ginard B. 1985. Intricate combinatorial patterns of exon splicing generate multiple regulated troponin T isoforms from a single gene. Cell 41:67-82. Breitbart RE and Nadal-Ginard B. 1986. Complete nucleotide sequence of the fast skeletal troponin T gene. Alternatively spliced exons exhibit unusual interspecies divergence. J Mol Biol 188:313-324. Brenner B, Yu LC, and Podolsky RJ. 1984. X-ray diffraction evidence for cross-bridge formation in relaxed muscle fibers at various ionic strengths. Biophys J 46:299-306. Bronson DD and Schachat FH. 1982. Heterogeneity of contractile proteins. Differences in tropomyosin in fast, mixed, and slow skeletal muscles of the rabbit. J Biol Chem 257:3937-3944. Brzeska H, Lynch TJ, and Korn ED. 1989. The effect of actin and phosphorylation on the tryptic cleavage pattern of Acanthamoeba myosin IA. J Biol Chem 264:10243-10250. Burtnick LD and Kay CM. 1977. The calcium-binding properties of bovine cardiac troponin C. FEBS Lett 75:105-110. Buse MG, Robinson KA, Marshall BA, Hresko RC, and Mueckler MM. 2002. Enhanced O-GlcNAc protein modification is associated with insulin resistance in GLUT1overexpressing muscles. Am J Physiol Endocrinol Metab 283:E241-E250. Buse MG. 2006. Hexosamines, insulin resistance, and the complications of diabetes: current status. Am J Physiol Endocrinol Metab 290:E1-E8. 179 © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 Buss F, Kendrick-Jones J, Lionne C, Knight AE, Cote GP, and Paul LJ. 1998. The localization of myosin VI at the golgi complex and leading edge of fibroblasts and its phosphorylation and recruitment into membrane ruffles of A431 cells after growth factor stimulation. J Cell Biol 143:1535-1545. Caiozzo VJ, Baker MJ, Herrick RE, Tao M, and Baldwin KM. 1994. Effect of spaceflight on skeletal muscle: mechanical properties and myosin isoform content of a slow muscle. J Appl Physiol 76:1764-1773. Caiozzo VJ, Haddad F, Baker MJ, Herrick RE, Prietto N, and Baldwin KM. 1996. Microgravity-induced transformations of myosin isoforms and contractile properties of skeletal muscle. J Appl Physiol 81:123-132. Caiozzo VJ, Baker MJ, and Baldwin KM. 1998. Novel transitions in MHC isoforms: separate and combined effects of thyroid hormone and mechanical unloading. J Appl Physiol 85:2237-2248. Cammarato A, Craig R, Sparrow JC, and Lehman W. 2005. E93K charge reversal on actin perturbs steric regulation of thin filaments. J Mol Biol 347:889-894. Campione M, Ausoni S, Guezennec CY, and Schiaffino S. 1993. Myosin and troponin changes in rat soleus muscle after hindlimb suspension. J Appl Physiol 74:1156-1160. Cao P, Kimura S, Macias BR, Ueno T, Watenpaugh DE, and Hargens AR. 2005. Exercise within lower body negative pressure partially counteracts lumbar spine deconditioning associated with 28-day bed rest. J Appl Physiol 99:39-44. Casella JF, Craig SW, Maack DJ and Brown AE. 1987. Cap Z(36/32), a barbed end actin-capping protein, is a component of the Z-line of skeletal muscle. J Cell Biol 105:371-379. Cetinbas N, Macauley MS, Stubbs KA, Drapala R, and Vocadlo DJ. 2006. Identification of Asp174 and Asp175 as the key catalytic residues of human O-GlcNAcase by functional analysis of site-directed mutants. Biochemistry 45:3835-3844. Chalkley RJ and Burlingame AL. 2001. Identification of GlcNAcylation sites of peptides and alpha-crystallin using Q-TOF mass spectrometry. J Am Soc Mass Spectrom 12:11061113. Chen D, Juarez S, Hartweck L, Alamillo JM, Simon-Mateo C, Perez JJ, FernandezFernandez MR, Olszewski NE, and Garcia JA. 2005. Identification of secret agent as the 180 © 2009 Tous droits réservés. http://doc.univ-lille1.fr Thèse de Julie Hédou, Lille 1, 2008 O-GlcNAc transferase that participates in Plum pox virus infection. J Virol 79:93819387. Cheng X, Cole RN, Zaia J, and Hart GW. 2000. Alternative O-glycosylation/Ophosphorylation of the murine estrogen receptor beta. Biochemistry 39:11609-11620. Cheung HC, Wang CK, and Malik NA. 1987. Interactions of troponin subunits: free energy of binary and ternary complexes. Biochemistry 26:5904-5907. Cheung WD and Hart GW. 2008. AMP-activated protein kinase and p38 MAPK activate O-GlcNAcylation of neuronal proteins during glucose deprivation. J Biol Chem 283:13009-13020. Chong PC and Hodges RS. 1982. Photochemical cross-linking between rabbit skeletal troponin subunits. Troponin I-troponin T interactions. J Biol Chem 257:11667-11672. Chou CF, Smith AJ, and Omary MB. 1992. Characterization and dynamics of O-linked glycosylation of human cytokeratin 8 and 18. J Biol Chem 267:3901-3906. Cieniewski-Bernard C, Bastide B, Lefebvre T, Lemoine J, Mounier Y, and Michalski JC. 2004. Identification of O-linked N-acetylglucosamine proteins in rat skeletal muscle using two-dimensional gel electrophoresis and mass spectrometry. Cell Proteomics 3:577-585. Cieniewski-Bernard C, Mounier Y, Michalski JC, and Bastide B. 2006. O-GlcNAc level variations are associated with the development of skeletal muscle atrophy. J Appl Physiol 100:1499-1505. Cohen PT. 2002. Protein phosphatase 1--targeted in many directions. J Cell Sci 115:241256.
| 44,340
|
2005COMP1584_1
|
French-Science-Pile
|
Open Science
|
Various open science
| 2,005
|
Synthèse de Fischer-Tropsch en réacteurs structurés à catalyse supportée en paroi
|
None
|
French
|
Spoken
| 7,526
| 13,218
|
SYNTHESE DE FISCHER-TROPSCH EN REACTEURS STRUCTURES A CATALYSE SUPPORTEE EN PAROI
Loïc A. Guillou To cite this version: Loïc A. Guillou. SYNTHESE DE FISCHER-TROPSCH EN REACTEURS STRUCTURES A CATALYSE SUPPORTEE EN PAROI. Génie des procédés. Ecole Centrale de Lille; Université de Technologie de Compiègne, 2005. Français. NNT :. tel-00141507 HAL Id: tel-00141507 https://theses.hal.science/tel-00141507 Submitted on 13 Apr 2007 HAL is a multi-disciplinary open
access archive
for the deposit and dissemination of scientific research documents, whether they are published or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers. L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou
non
, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés
. THESE Présentée à L’Ecole Centrale de Lille et l’Université de Technologie de Compiègne En vue d’obtenir le titre de Docteur Spécialité : Génie des Procédés Par Loïc Guillou SYNTHESE DE FISCHER-TROPSCH EN REACTEURS STRUCTURES A CATALYSE SUPPORTEE EN PAROI Soutenue le 25 Novembre 2005 devant le jury d’examen : Mr G. Antonini, Professeur, Mr F. Garin, Directeur de Recherches
, rapporteur Mme V. Le Courtois, Maître de Conférence Mr E. Payen, Professeur, co-directeur de thèse Mr P. Supiot, Professeur des universités, rapporteur Mr B. Taouk, Maître de Conférence
, HDR THESE Présentée à L’Ecole Centrale de Lille et l’Université de Technologie de Compiègne En vue d’obtenir le titre de Docteur Spécialité : Génie des Procédés Par Loïc Guillou SYNTHESE DE FISCHER-TROPSCH EN REACTEURS STRUCTURES A CATALYSE SUPPORTEE EN PAROI Soutenue le 25 Novembre 2005 devant le jury d’examen : Mr G. Antonini, Professeur, Mr B. Taouk, Maître de Conférence, HDR Mr
F. Gar
in, Direct
eur
de
Recherches, rapporteur Mme V. Le Courtois, Maître de Conférence Mr E. Payen, Professeur, co-directeur de thèse Mr P. Supiot, Professeur des universités, rapporteur
Ce travail a été réalisé entre Octobre 2002 et Septembre 2005 au sein de l’équipe « génie chimique » du Laboratoire de Catalyse de Lille (UMR-CNRS 8010). J’exprime avant tout mon profond respect et mes plus sincères remerciements au Professeur Dominique Vanhove qui aura été l’initiateur de ce travail. Il m’a offert l’opportunité de prendre part à un projet de recherche enrichissant, tant au niveau scientifique que professionnel ou personnel. Il nous aura quitté bien trop tôt, aussi souhaiterais-je dédier à sa mémoire ces quelques résultats. J’espère que j’aurais su ne trahir ni la confiance qu’il avait accepté de m’accorder, ni l’esprit d’une recherche qui fut la sienne bien avant qu’elle ne devienne la mienne. Je tiens également à remercier le Professeur Edmond Payen, Directeur du Laboratoire, qui a accepté de reprendre la direction de cette recherche. Le soutien de Mme Véronique Le Courtois, Maître de Conférences, qui a codirigé cette thèse m’a également été très précieux : je lui en suis plus que reconnaissant. Je remercie Mrs et Mme les membres du jury d’avoir accepté d’évaluer ce travail Je souhaite remercier le Professeur Philippe Supiot, Directeur du GéPIFRéM (UPRES-EA 2698) qui m’a accueilli dans son laboratoire et a mis ses moyens et ses compétences à ma disposition pour la réalisation des dépôts de film par PACVD. Notre amicale collaboration aura été pour moi plus qu’enrichissante et agréable. Ma gratitude va également aux différentes personnes qui ont contribué de près ou de loin à ces travaux : Gilbert Foray et Gérard Cambien, Olivier Gardoll, Léon Gengembre et Martine Frère, techniciens et ingénieurs du Laboratoire ; Anne Griboval-Constant et Pascal Fongarland, enseignants-chercheurs rattachés au Laboratoire ; mais aussi David Balloy, Simon Thomy, Christophe Vermander ou Xavier Cimetière, Maître de Conférences, techniciens ou ingénieurs à l’Ecole Centrale de Lille. Je remercie aussi pour leur amitié tous les membres du Laboratoire et de l’équipe « génie chimique », (Mme Nouria Fatah, Mrs Paul Sébastien, Marek Czernicki, Rafeh Bechara, Stanislas Pietrzyk et Yves Vandewalle). Enfin j’ai une pensée amicale pour tous ceux que j’oublie ou que je ne peux citer, famille, amis, collègues... Merci.
A la mémoire du Professeur Dominique Vanhove
SOMMAIRE:
INTRODUCTION GENERALE 13 CHAPITRE I. : INTRODUCTION BIBLIOGRAPHIQUE 16 I.
16 16
20 20 22 23 24 24 24 26 28 29 31 32 32 32 32 33 34 34 36 36 37 38 38 39 41 43 43 44 46 46 47
48
49
La Synthèse de Fischer-Tropsch 1.1. Un peu d’histoire... 1.2. Aspect thermodynamique 1.3. Aspect cinétique : distribution des produits 1.3.1. Distribution « idéale » 1.3.2. Déviations de la distribution
1.4. Formalisation d’un mécanisme
1.4.1. Mécanismes d’adsorption de H2 et CO sur métaux de transition 1.4.1.1. Adsorption de H2 1.4.1.2. Adsorption de CO 1.4.2. Mécanisme alkyl 1.4.3. Mécanisme vinylique 1.4.4. Mécanisme énol 1.4.5. Mécanisme d’insertion de CO
II. Catalyseurs
2.1. Types de catalyseurs 2.1.1. Métaux de transition actifs en SFT 2.1.2. Influence du support 2.1.3. Rôle des promoteurs 2.1.4. Poisons et désactivation 2.1.5. Corrélations entre catalyseur, procédé et sélectivité 2.2. Catalyseurs Co/SiO2 2.2.1. Aperçu des propriétés 2.2.2. Synthèse sol-gel alkoxyde
III. Réacteurs et procédés
3.1. Réacteurs et procédés industriels 3.1.1. Réacteurs industriels 3.1.2. Procédés commerciaux 3.2. Réacteurs en cours de développement 3.2.1. Réacteur à cartouche ou à « plaques » 3.2.2. Réacteurs membranaires 3.2.3. Réacteurs monolithiques 3.2.3.1. Propriétés des monolithes 3.2.3.2. Réacteurs tubulaires ou à plaques corrugués 3.2.3.2. Miniaturisation
IV. Situation de la th
èse
6 PARTIE I. : MISE AU POINT D’UNE METHODE DE DEPOT DE CATALYSEUR SUR PLAQUE EN ACIER INOXYDABLE 55
INTRODUCTION A LA MISE AU POINT D’UNE METHODE DE DEPOT DE 57 CATALYSEUR SUR PLAQUE EN ACIER INOXYDABLE
CHAPITRE II. : DEPOT ET MODIFICATION D’UN FILM A BASE DE SILICIUM PAR DEPOT CHIMIQUE PHASE VAPEUR ASSISTE PAR PLASMA ET TRAITEMENT THERMIQUE 61
I. Caractéristiques des films de polyméthyldisiloxane obtenus par PACVD 62 Traitement par PACVD d’éprouvettes en inox 316L 63 2.1. Technique de dépôt par PACVD, système expérimental 64 2.2. Conditions opéra
65 2.3. Résultats
66 2.3.1. Vitesse de croissance du film 67 2.3.2. Caractérisations spectroscopiques 67 2.3.2.1. Microscopie Raman 68 2.3.2.2. IRTF 68 2.3.3. Texture des films 70 2.4. Influence du post-traitement sous oxygène et CRNP 71 2.4.1. Analyse surfacique 71 2.4.2. IRTF 72 III. Modification du matériau par traitement thermique 73 3.1.
Conditions
opératoires 73
3.2. Caractérisations des matériaux calcinés 73 3.2.1. Texture des films calcinés 74 74 3.2.2. Caractérisations spectroscopiques 3.2.2.1. Analyse surfacique 74 3.2.2.2. Microscopie Raman et IRTF 75 77 3.2.3. Evaluation de la tenue mécanique 3.3. Comportement des revêtements sous conditions de synthèse de FischerTropsch 77 IV. Synthèse du procédé d’obtention d’une couche de pré-accroche sur acier inox 78 II. 7
CHAPITRE III. : GREFFAGE D’UN CATALYSEUR CO/SIO2 PRETRAITE PAR SOL-GEL ASSISTEE PAR AEROSOL SUR UN INOX
I. Sol-gel assisté par aérosol 1.1. Paramètres influents des méthodes « sol-gel » assistées par aérosol 1.2. Dispositif expérimental d’atomisation/dépôt II. Optimisation des paramètres de pulvérisation 2.1. Choix du catalyseur et formulation du sol de départ 2.2. Etude exploratoire qualitative des paramètres d’aérosol 2.2.1. Paramètres fixés 2.2.2. Influence du débit de gaz vecteur 2.2.3. Influence du débit de sol III. Application au greffage de Co/SiO2 sur inox modifié par PACVD 3.1. Influence du prétraitement et des paramètres de pulvérisation sur la tenue 3.2. Cycle de déposition 3.3. Calcination 3.4. Caractéristiques des catalyseurs frais 3.4.1. Diffraction des rayons X 3.4.2. Analyse texturale BET 3.4.3. Microscopie électronique et analyse EDX IV. Synthèse du protocole de greffage de catalyseur par voie sol-gel assistée aérosol 82 83 83
85
86
86 88
89
90 91
92
92 94 95 96 96 97 99 par 103 CONCLUSION A LA MISE AU POINT D’UNE METHODE DE DEPOT DE CATALYSEUR 110 SUR PLAQUE EN ACIER INOXYDABLE PARTIE II. : SYNTHESE DE FIS
CHER-TROPSCH
EN REACTEURS A CATALYSE SUPPORTEE EN PAROI SOUS REGIME PERMANENT 112
INTRODUCTION A LA SYNTHESE DE FISCHER-TROPSCH EN REACTEURS A CATALYSE SUPPORTEE EN PAROI SOUS REGIME PERMANENT 114
CHAPITRE IV. : REACTIVITE D’UN CATALYSEUR CATALYSE SUPPORTEE EN PAROI I. II. CO/SIO2 EN REACTEURS
A Description des réacteurs utilisés 1.1. Cahier des charges 1.2. Réacteur de géométrie « chambre » 1.3. Réacteur de géométrie « canal » Comportement catalytique de Co/SiO2 en réacteur « chambre » 2.1. Influences de la variation des pressions partielles d’alimentations 8 117
117 117 118
119
121
121
2.1.1. Influence du ratio d’alimentation sur la conversion en monoxyde de carbone 122 2.1.2. Influence du ratio d’alimentation sur la sélectivité 123 2.1.2.1. Sélectivité en hydrocarbures 124 2.1.2.2. Influence du ratio d’alimentation sur le coefficient de 125 propagation de chaîne 2.1.2.3. Influence du ratio d’alimentation sur le taux d’insaturation 126 2.2. Influences de la variation du temps de contact 127 2.2.1. Influence du temps de contact sur la conversion en monoxyde de carbone 127 2.2.2. Influence du temps de contact sur la distribution des produits 128 129 2.3. Influences de la variation d’épaisseur de catalyseur déposé 2.3.1. Influence de l’épaisseur sur la conversion en monoxyde de carbone 129 2.3.2. Influence de l’épaisseur sur la distribution des produits 130 2.4. Influences de la température de réaction 131 2.4.1. Influence de la température sur la conversion en monoxyde de carbone 131 2.4.2. Influence de la température sur la distribution des
produits
132
III. Composition de sortie de la phase gaz en régime permanent pour le réacteur « chambre » 132
3.1. Bilan carbone 133 3.2. Complément de sélectivité : calcul de la sélectivité en méthane 134 3.3. Calcul de la composition de la phase gaz 136 3.3.1. Pressions partielles calculées en réactifs non consommés 137 3.3.2. Pressions partielles calculées en produits 138 3.3.3. Influence de la pression de sortie en réactifs de la phase gaz sur α 138 IV. Comportement catalytique de Co/SiO2 en réacteur « canal » 139
4.1. Influences de la variation des pressions partielles d’alimentations 140 4.1.1. Influence du ratio d’alimentation sur la conversion en monoxyde de 140 carbone 141 4.1.2. Influence du ratio d’alimentation sur la sélectivité 4.1.2.1. Influence sur la distribution par coupe 141 4.1.2.2 Influence sur le coefficient de propagation de chaîne 142 4.2. Influences de la variation du temps de contact 143 4.2.1. Influence du temps de contact sur la conversion en monoxyde de 143 carbone 4.2.2. Influence du temps de contact sur la distribution des produits 144
V
. Evolution texturale des catalyseurs déposés sur inox
après
exposition aux
conditions de réaction 145 5.1. Examen optique d’une plaque catalytique testée en réacteur « chambre » 146 5.2. Analyse B.E.T. des catalyseurs réduit et post-run 146 5.3. Microscopie électronique 147 5.4. Analyse EDX et imagerie X 148 VI. Conclusion 152
CHAPITRE V. : APPROCHE CINETIQUE DU COMPORTEMENT D’UN CATALYSEUR CO/SIO2 EN REGIME PERMANENT 156 9
Détermination des distributions de temps de séjour 156 1.1. Outils de détermination de DTS 156 1.2. DTS du réacteur « chambre » 157 1.3. DTS du réacteur « canal » 160 II. Expression de -rCO 161 2.1. Exploitation des données dans l’approximation RPA 162 a b 2.1.1. Loi puissance (-rCO=kPCO PH2 ) 163 2.1.2. Comparaison avec les expressions de la littérature 163 2.2. Modélisation de –rCO dans l’approximation PFR 166 2.2.1. Hypothèses de modélisation 166 2.2.2. Résultats 167 III. Prise en compte de la contraction molaire 169 170 3.1. Hypothèses de modélisation
3.1.1. Enoncé des hypothèses 170 3.1.2. α
170 3.1.
3.
r
CH
4 171 3.1.4. Mode de calcul de rCiH2i+2 171 3.1.4. Mode de calcul de εa 172 3.2. Résultats dans l’approximation CSTR et application au PFR 173 3.2.1. Evaluation des ordres et constantes cinétiques 173 3.2.2.
Application
au PFR 174 3.2.2.1.
Evaluation de la
conversion : influence de
l
’
expression de
-rCO 174 3.2.2.2. Critique du modèle d’évaluation de la sélectivité 175 3.3. Sensibilité de XCO à εa 177 3.4. Modélisation de –rCO en PFR à εa=0,415 178 3.4.1. H2/CO variable 179 3.4.2. Temps de contact variable 180 IV.
Influence
comparée des
conditions
de
test
sur les performances catalytiques 181
4.1. Eléments de comparaison avec les performances du catalyseur en réacteur à litfixe 182 182 4.1.1. Tests en lit fixe à masse de catalyseur équivalente 4.1.2. Lit fixe vs. réacteur « chambre » à iso-conversion 183 4.1. Dépendance Sélectivité/Conversion 184
V. Conclusion 187 I.
CONCLUSION A LA SYNTHESE DE FISCHER-TROPSCH
EN
REACTEURS
A
CATALYSE SUP
PORTE
E EN PAROI SOUS REGIME PERMANENT 192 CONCLUSION GENERALE ET PERSPECTIVES CHAPITRE VI. : ANNEXES EXPERIMENTALES I. Caractérisation des matériaux et catalyseurs
1.1. Caractérisations texturales 1.1.1. Adsorption-Désorption d’azote, analyse texturale 10
196
I II II II 1.1.2. Microscopie électronique à balayage, analyse EDS Caractérisations structurales 1.2.1. Diffraction des rayons X 1.2.2. Microscopie Raman 1.2.3. Spectroscopie infrarouge 1.2.4. Spectroscopie des photons induits par rayons X (XPS)
II. Système de test
catalytique 2.1. Alimentation en réactifs 2.2. Analyse des phases gaz (entrée et sortie) 2.3. Automatisation et contrôle 2.4. Réacteurs utilisés 2.4.1.
acteur tubulaire à alimentation séparée 2.4.2.
Ré
acteurs
structurés
à catalyse supportée
en paroi 2.5. Conversion, sélectivité et bilan carbone
2.5.1. Calcul de la conversion 2.5.2. Sélectivité 2.5.3. Probabilité de croissance de chaîne 2.5.4. Bilan carbone III. Evaluation de la tenue mécanique 1.2. 11 IV IV IV V V VI VI VI VII IX X X XI XI XI XI XI XII XII
INTRODUCTION GENERALE: tabli en 2000, le consortium SasolChevron 1 apparaît, avec 3 réalisations E industrielles en cours, comme l’acteur principal du renouveau commercial de la synthèse de Fischer-Tropsch (SFT). Si aujourd’hui la SFT connaît un tel essor, force est de constater que son développement a été entravé, dans le passé, par les évènements politiques et le contexte économique, et ceci malgré une offre technologique abondante. Ces mêmes paramètres semblent maintenant avoir l’effet contraire : le développement des pays émergents, la modification des équilibres pétro-stratégiques et une certaine prise de conscience environnementale contribuent à rendre attractives et rentables des sources de matières premières et des productions qui annoncent de meilleurs auspices pour la SFT. Un cours du pétrole durablement élevé (au dessus de 40 €/bbl) permet de rendre compétitive cette technologie dont le coût d’une installation classique est estimée autour de 25000 €/bbl/jour de capacité installée 2. Les produits de synthèse trouvent alors des débouchés commerciaux importants, soit pour le blending 3 des coupes Diesel et l’obtention de carburants moins polluants, soit pour le marché des intermédiaires chimiques telles que les oléfines. Toutefois seules des économies d’échelle conséquentes permettent de garantir une rentabilité sur le long terme. Ainsi, les sites de moins de 50000 bbl/j de capacité de production, s’ils ont constitué la majorité des unités jusqu’à présent, devraient disparaître au profit d’entités de 200000 bbl/j ou plus1. Face à ces projets gigantesques, quelques autres approches voient le jour. Les progrès effectués en miniaturisation des installations permettent d’envisager la logique d’économie d’échelle, non plus dans l’optique d’une croissance verticale comme pour les cas précédents, mais horizontale, selon le concept d’intensification 1 www.sasolchevron.com
Dry E.
M.
,
Catal. Today, 1990, 6, 183 3
Mélange de coupes identiques d’origines différentes permettant de modifier les propriétés du produit final. Cette opération permet notamment d’atteindre les teneurs réglementaires fixées pour les émissions de polluants. En Europe, la directive 70/220/EEC prévoit par exemple un taux maximum de soufre de 50 ppm en 2005 pour les carburants Diesel. Elle impose également la mise sur le marché de carburant « zéro-soufre » (<10ppm) qui doivent se substituer aux Diesels actuels pour 2009 au plus tard. 2 13 des procédés. Les réacteurs monolithiques et miniaturisés se présentent alors comme de potentiels candidats pour la prochaine génération d’installations. Cependant, le comportement de la SFT dans ce nouvel environnement réactif est encore mal cerné. Les informations nécessaires à la définition d’outils rationnels de dimensionnement manquent, de même que certaines technologies nécessaires à la mise en œuvre de ces systèmes monolithiques, sous une forme ou une autre. Le travail sur lequel porte cette thèse tente d’aller dans ce sens en présentant l’utilisation de réacteurs structurés par des micro-canaux associés à une phase catalytique Co/SiO2 monolithique supportée en paroi pour la SFT. Les réacteurs employés sont constitués d’empilements de feuillets fonctionnalisés, certains afin d’être instrumentés, d’autres afin de fournir les éléments de contrôle fluidique ou de supporter les phases catalytiques actives. Ce mode de fabrication défini un réacteur à catalyse supportée en paroi, ou TWR. Dans une première partie, et après avoir situé le contexte de la recherche vis-à-vis de l’état de l’art de la SFT et de ses réacteurs, un procédé de greffage du catalyseur sur un substrat en acier inoxydable est présenté. Il permet de réaliser un conditionnement et une mise en forme de l’espèce active compatible avec la géométrie et les dimensions de réacteur retenues. Le chapitre II. aborde plus spécifiquement la question de la gestion/création d’une interface nécessaire au greffage sur inox, alors que le chapitre III. traite du greffage du catalyseur à proprement parler. Une seconde partie se concentre sur l’étude de ces revêtements en conditions réactives SFT et en régime permanent. Le chapitre IV. présente ainsi les performances comparées de deux configurations de réacteurs à catalyse supportée en paroi pour diverses conditions réactionnelles. Le chapitre V. regroupe enfin l’analyse de l’ensemble des résultats obtenus en réaction ainsi qu’une approche simplifiée de la modélisation de la vitesse de consommation du monoxyde de carbone. Pour conclure, un rappel de différents résultats obtenus est proposé, accompagné de suggestions concernant d’éventuelles perspectives. 14 CHAPITRE I. : INTRODUCTION BIBLIOGRAPHIQUE SYNTHESE DE FISCHER-TROPSCH ET REACTEURS
L e chapitre suivant introduit l’état de l’art concernant la synthèse de Fischer-Tropsch, plus particulièrement à partir de catalyseurs au cobalt. Il présente aussi de façon succincte les différents types de réacteurs utilisés, en laboratoire et à échelle industrielle
1. I. La Synthèse de Fischer-Tropsch
Le terme de Synthèse de Fischer-Tropsch (SFT) regroupe un ensemble de réactions chimiques catalysées permettant, à partir de gaz de synthèse 2, d’obtenir une large gamme de molécules hydrocarbonées (paraffines, oléfines, dérivés oxygénés...). Selon une désignation répandue, lorsque le gaz de synthèse est obtenu à partir de méthane, la SFT est considérée comme appartement à la famille des réactions de conversion du gaz au liquide (GTL). Si la source de matière première est le charbon, elle sera classée comme appartenant aux réactions de conversion du charbon au liquide (CTL). La réaction en elle-même apparaît comme assez similaire à une forme de polymérisation. Selon les conditions retenues, la gamme des produits obtenus va grandement varier [1]. Ce sont les choix de catalyseurs, réacteurs et fenêtres opératoires qui déterminent l’orientation de la production ainsi que ses performances. En contrôlant ces paramètres, il est donc possible de fabriquer divers intermédiaires chimiques et pétrochimiques ainsi que des carburants synthétiques. Cependant la synthèse reste, même après une sélection poussée de ces facteurs, assez peu sélective. Il en résulte par exemple une production de carburants couvrant aussi bien les fractions essences, Diesel que les cires. 1 Le lecteur pourra consulter le site www.fischer-tropsch.org qui propose une base de données regroupant une grande quantité de références et de documents relatifs à la SFT et couvrant près d’un siècle de recherches. 2
Le gaz de synthèse est généralement constitué de monoxyde de carbone (CO) et d’hydrogène (H2), mais peut aussi contenir une certaine part de dioxyde de carbone (CO2) ou de gaz inertes comme l’azote (N2).
16
1.1. Un peu d’histoire...
La première mention de fabrication d’un hydrocarbure
à partir de
gaz de synthèse
par
réaction catalytique
remonte
à 1902 lorsque Sabatier et Senderens [2] procédèrent à la fabrication de méthane sur nickel et cobalt à partir d’un mélange de monoxyde de carbone et d’hydrogène. Six ans plus tard Orlov [1], réussit à fabriquer de l’éthylène sur un catalyseur bimétallique nickel-palladium. En 1913 paraissait le premier brevet exploitant cette gamme de réactions, déposé en Allemagne par la société BASF [1], et revendiquant la préparation d’une huile à partir de gaz de synthèse sur catalyseurs cobalt-osmium. Le procédé fut ensuite perfectionné par Fischer et Tropsch [1,3,4], qui rapportaient en 1924 la fabrication d’hydrocarbures synthétiques à l’aide d’un catalyseur au fer. Ce procédé présentait toutefois l’inconvénient majeur d’utiliser un catalyseur se désactivant très vite à pression atmosphérique. En travaillant à pression élevée (50 bar) et à forte température (450°C) ces premiers travaux aboutirent au procédé « Synthol », ayant une forte sélectivité en produits oxygénés. Par la suite, d’autres procédés furent développés (« ARGE », « Synol », « Robinson-Bindley »...[5,6]). La principale production recherchée alors était celle des chaînes hydrocarbonées longues non-ramifiées ; le meilleur catalyseur alors employé consistait en une formulation Co-ThO2-MgO-Kieselguhr (100:5:8:200 en masse) utilisée en réacteurs à -fixe. Ce catalyseur s’est révélé être le plus performant mis au point sur une période couvrant les quarante années suivantes [6]. A la fin de la seconde guerre mondiale, la plupart des installations avaient été détruites ou démantelées. Un grand nombre de renseignements les concernant fut rapatrié en GrandeBretagne, mais surtout aux Etats-Unis, où fut entamée une vaste évaluation, dirigée par le ministère de l’énergie (D.O.E., Department of Energy). Cette opération initia le lancement d’un certain nombre d’unités pilotes, comme à Brownsville (Texas, procédé « Hydrocol », 5000 bbl/j) ou en Louisiane avec le Bureau of Mine Plant en 1950. Mais dans le même temps, la découverte et la mise en exploitation de vastes champs pétrolifères au Moyen-Orient (Ghawar, Arabie Saoudite) provoqua la fermeture progressive des dernières installations utilisant des procédés de type SFT [7] : le faible coût du pétrole rendait ce type de production peu intéressant. 17 Parallèlement, l’Afrique du Sud, souhaitant valoriser ses importantes réserves charbonnières, ouvrait à Sasolburg son premier site de production de carburants synthétiques. Malgré des débuts difficiles, l’entreprise développa et améliora les procédés ARGE et Kellogg. Par la suite, deux autres sites CTL-FTS furent commissionnés : Sasol II et III ouverts en 1976 et 1983. Ils permirent à l’Afrique du Sud d’amoindrir les effets de la révolution iranienne (principal fournisseur pétrolier de l’Afrique du Sud), de l’embargo lié à l’apartheid et des chocs pétroliers [8]. Les crises internationales et l’instabilité des prix du pétrole relancèrent alors l’intérêt général porté à la SFT. Les percées industrielles les plus visibles furent le développement et l’implantation des procédés S.A.S. (Sasol advanced Synthol) chez Sasol et MossGas ainsi que le S.M.D.S. (Shell Middle Distillate Synthesis) en Malaisie par Shell en 1992 [9]. Depuis, la plupart des grands groupes pétroliers ont investi d’énormes efforts financiers pour entrer dans le club technologique assez fermé du GTL-FTS. ExxonMobil par exemple est en mesure de proposer son propre grand procédé (A.G.C.-21) visant à exploiter les importants gisements gaziers découverts dans les années 70. De plus petites compagnies (Rentech, Statoil, Syntroléum), misant sur de plus petits projets destinés à des applications de moins grande envergure mais permettant la rentabilité de gisements isolés ou diffus, développèrent également ces technologies au même moment [10]. Aujourd’hui, les propriétés des carburants de synthèse obtenus par SFT pourraient favoriser le développement de ces procédés. Contenant très peu ou pas de soufre ni d’aromatiques, les carburants synthétiques se présentent comme des carburants « propres », et conformes aux propriétés imposées par les législations en vigueur ou en cours de mise en application dans de nombreux pays. Présentant un indice de cétane généralement supérieur à 75, ils ont de très bonnes performances moteur, permettant un rendement énergétique plus intéressant que celui de l’essence. Mais ce qui pourrait favoriser un essor durable pour ces technologies serait un prix durablement élevé du pétrole. Or, si les crises internationales ou régionales influent à court terme sur les cours, c’est plus probablement le développement économique accéléré de la Chine, de l’Inde ou du Brésil, allié à un manque d’infrastructures de production pétrolière qui vont maintenir des prix assez hauts (prédits autour de US$50/bbl pour le pétrole et US$60/t pour le charbon) dans le moyen à long terme, et donc rendre attractif le GTL-FTS [11]. Les politiques actuelles de développement et d’implantation mises en œuvre par les acteurs majeurs du domaine semblent en tout cas en témoigner.
18
1.2. Aspect thermodynamique
La SFT peut être résumée en quelques équations stœchiométriques proposées par Kolbel et al. [1]. Celles-ci illustrent le phénomène de création de l’espèce -(CH2)-, utilisée ici comme monomère modèle d’addition mais il existe également d’autres systèmes rendant compte des réactions secondaires de formation d’alcènes et d’alcools. Il est ici nécessaire d’insister sur le fait que ces équations ne donnent aucune information sur le mécanisme réactionnel réel. (1) CO + 2H2 = -(CH2)+ H2O ΔHR400K = 165kJ/mol
(2)
CO + H2O = H2 + CO2 ΔHR
400K
= 40
kJ/mol (3) 3CO + H2O =
-(CH2)+ 2CO2 ΔHR400K = 245kJ/mol (4) CO2
+
3H2
= -
(CH2)+
2
H2O ΔHR400K
= 125
kJ
/
mol
Mise à part l’équation (2), tous ces équilibres traduisent une diminution du nombre de moles gazeuses. La SFT sera donc favorisée par des pressions élevées. Un certain nombre de réactions peuvent également avoir lieu en parallèle à la SFT dans les mêmes conditions réactionnelles : elles peuvent ainsi la concurrencer ou participer à une dégradation du catalyseur et des conditions de réaction. On peut citer parmi ces réactions parasites le retour du gaz-à-l’eau (water-gas-shift ou WGS) (2), le retour au méthane ((5), (6) et (8)) ou la réaction de Boudouard (aussi appelée cokéfaction) (7).
(5) CO + 3
H
2 = CH4 + H2O ΔHR
400K
=
215kJ/mol (6)
2
CO
+ 2
H
2 = CH4
+ CO2
Δ
HR
400K = 254kJ/mol
(7)
2CO = C + CO2 ΔHR400K = 134kJ/mol (8) CO2 + 4H2 = CH4 + 2H2O ΔHR400K = 175kJ/mol
Il faut préciser que ces réactions peuvent ne pas avoir toutes systématiquement lieu. Par exemple, la WGS opère principalement sur les catalyseurs à base de fer. La formation du méthane par la voie présentée en (6) a elle aussi principalement lieu sur les catalyseurs au fer. Quant aux équations (4) et (8) elles peuvent se rattacher à la synthèse de Sabatier qui utilise du CO2 en lieu et place du CO. Elles montrent ainsi la continuité qui peut exister 19 la SFT. Leur influence ne devient cependant notable que pour des températures supérieures à 300°C. La prise en compte de ces diverses contributions donne alors une enthalpie de réaction moyenne de -150kJ/mol [12], ce qui implique que la SFT est une réaction exothermique. D’autre part dans la gamme de températures habituellement employées pour la synthèse (de 180 à 400°C), c’est la formation de méthane qui est thermodynamiquement favorisée, au détriment de la croissance de chaîne liée à la formation des monomères d’insertion. A température donnée, la méthanisation devrait donc être prépondérante, devant les paraffines, les oléfines et les dérivés oxygénés (dans cet ordre) [13]. Cependant, si à haute température, la production de méthane est effectivement majoritaire par rapport à la création de chaînes, la thermodynamique seule ne suffit pas pour décrire la distribution des produits obtenue : sur catalyseur au cobalt, l’augmentation avec la température est concomitante avec l’augmentation de la probabilité d’obtenir des oléfines ou des dérivés oxygénés alors que parallèlement le nombre de paraffines tend à diminuer. L’influence de paramètres additionnels à la température (pression, temps de contact...) sur la longueur moyenne des chaînes, les taux d’insaturation ou de ramification laisse apparaître un contrôle cinétique [1]. C’est donc une ou plusieurs étapes cinétiquement déterminantes de la synthèse qui définissent la sélectivité.
1.3. Aspect cinétique : distribution des produits
La variété de produits qu’il est possible d’obtenir à partir de la SFT rend assez délicate toute tentative de prédiction de leur répartition. Toutefois, il semble que celle-ci suive un schéma assez semblable à celui obtenu lors de polymérisations macromoléculaires.
1.3.1. Distribution « idéale » Cette similarité avec les réactions de polymérisation a été exploitée par Herington [14] et Anderson [15-18] sur la base des travaux de Schulz [19]. Ceux-ci dérivent des modèles de polymérisation développés plus tôt par Flory [20]. La distribution obtenue pour caractériser la gamme des produits issus de la SFT tire son nom de ceux de ces chercheurs (distribution d’Anderson-Schulz-Flory ou A.S.F. [21]). 20 Cette représentation simplifiée repose sur l’utilisation de deux réactions en compétition, une réaction de croissance de chaîne et une réaction de terminaison de chaîne. Leurs vitesses de réaction sont liées à l’aide d’un seul et même paramètre α:
α= (9) rp rp + rt
Ici rp et rt représentent la vitesse de propagation de chaîne et une vitesse de terminaison de chaîne respectivement et servent à définir α, représentant une probabilité de croissance de chaîne ou coefficient de propagation. En règle générale, il peut être préférable d’utiliser, en lieu et place de rt, une valeur moyennée rt rendant compte de productions de natures différentes telles qu’un mélange d’hydrocarbures saturés et insaturés. Si cette probabilité est indépendante de la longueur du fragment issu de l’insertion précédente, alors la probabilité d’obtenir le produit Cn après n insertions est égale à α n −1 (1 − α ). La fraction massique Wn de ce même produit Cn est alors :
(10) Wn = n.m.α n −1 (1 − α ) p ∑ n.m.α n −1 (1 − α ) n.α n −1 (1 − α ) n.α n −1 (1 − α ) = = 1 (1 − α ) 1 − α + 2α (1 − α ) +... + pα p −1 (1 − α ) n =1
Avec m représentant la masse du monomère considéré et n le nombre d’unités monomères utilisé (soit dans le cas où celui-ci serait -(CH2)-, le nombre d’atomes de carbones Sélectivité impliqués).
1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1
0 C1-C4 C19+ C5-C11 C12-C18 0
0,1 0,2
0,3 0,4
0,5 0,6 0,7
0,8 0,9 1 α
Figure 1. : Distribution massique des produits en fonction de α (adapté de [22]) 21
Dans un système utilisant une représentation logarithmique, l’équation peut alors prendre la forme de : (11) ln( Wn (1 − α ) 2 ) = n. ln(α ) + ln( ) n α Il est alors aisé de déterminer la valeur de α à partir de la pente et/ou de l’ordonnée à l’origine du tracé de ln( Wn ) en fonction de n que l’on nomme « coordonnées A.S.F. ». La valeur que n prend α (fonction du catalyseur et des conditions opératoires) dicte la sélectivité maximale qu’il est possible d’obtenir pour une coupe hydrocarbonée donnée (Figure 1.). Ceci n’est cependant pas vrai pour tous les catalyseurs employés et des déviations à cette distribution sont régulièrement observées.
1.3.2. Déviations de la distribution
La distribution A.S.F., si elle permet une modélisation simplifiée de la distribution des produits, est prise en défaut dans un certain nombre de cas. Inoue et al. [23] proposent quatre grandes familles de déviation (Figure 2.). De façon générale, et cela même pour des catalyseurs semblant suivre un modèle de type A.S.F., un excès de méthane accompagné d’un déficit en C2 est quasi systématiquement observé sur le début de la distribution (Déviation de type A) [24]. Outre ces deux anomalies récurrentes, d’autres formes de déviations, liées à des facteurs d’origines variées, ont été rapportées. Si les données faussées par des artefacts et des problèmes analytiques sont éliminées (condensation, régime permanent non atteint ou gradients de concentration) [24], la limitation du nombre de motifs de la chaîne carbonée représente un second type de déviation (Figure 2., déviation négative ou de type B). Toutefois la multiplicité de causes de ce phénomène rend son interprétation délicate. La principale source de déviations négatives par rapport au schéma A.S.F. semble être liée à des phénomènes de rétention des produits dans le réacteur catalytique, principalement dans le cas des réacteurs à lit-fixe [25]. L’utilisation de zéolithes comme support peut également provoquer ce type de déviation, en particulier dans le cas de catalyseurs faiblement chargés [26]. 22 Ln (Wn/n) A B C D Nombre d’atomes de carbone
Figure 2. : Principaux types de déviations par rapport à la distribution ASF [23]
Le troisième grand type de déviation observé est une augmentation de la valeur de α avec le nombre de carbone (Figure 2., déviation positive ou de type C). Ce phénomène peut être caractérisé par l’utilisation de deux valeurs de α définies pour les chaînes courtes et longues respectivement [27]. Initialement attribué à l’existence de deux sites actifs possibles sur un catalyseur au fer [28], ce comportement a été observé par la suite sur de nombreux autres métaux ne présentant pas cette propriété. Il est en fait plus généralement attribué à des limitations diffusionnelles [29-32] ou à la réadsorption de produits primaires sur les sites métalliques [33]. Dès lors ils pourraient être réintroduits dans la croissance de chaîne. Il est également avancé que les oléfines formées aux cours de la synthèse puissent être à l’origine de réactions secondaires telles que des hydrogénations ou des réinsertions. La quatrième sorte de déviation présente une courbe en forme de cloche (Figure 2., déviation de type D). Nijs et Jacob [34] et Yang et al. [35] l’attribuent à des clusters métalliques de très petite taille qui viendraient limiter la longueur de chaîne possible. Il ne semble pas que ce type de déviation ait été rapporté ailleurs par la suite.
23
1.4. Formalisation d’un mécanisme
La variété des espèces obtenues en SFT rend la nature du mécanisme réactionnel assez complexe à établir. Ainsi, il existe toujours une certaine controverse quant à la façon dont se déroule la « polymérisation » observée, en particulier lorsqu’il faut rendre compte de tous les produits qu’il est possible d’obtenir sous des variables. Les quatre mécanismes réactionnels qui sont traditionnellement proposés sont: • Le mécanisme alkyl ou carbure • Le mécanisme vinylique • Le mécanisme énol ou de condensation des hydroxycarbènes • Le mécanisme d’insertion de CO Selon celui qui est considéré, l’étape d’initiation et le monomère d’insertion seront différents. Il s’agir par exemple d’un -CHx(vraisemblablement -CH2-), d’un hydroxycarbène -CH(OH)ou de -COen ce qui concerne le monomère. En règle générale, il est accepté que la réaction ne suit pas un unique mécanisme mais qu’il existe un certain nombre de chemins réactionnels parallèles coexistants [36]. Dans les faits aucun des mécanismes considérés ne suffit à lui seul pour expliquer l’intégralité des produits formés. Tous sont de plus confrontés à des éléments expérimentaux obérant en partie leur validité.
1.4.1. Mécanismes d’adsorption de H2 et CO sur métaux de transition 1.4.1.1. Adsorption de H2
La SFT implique l’adsorption et la consommation d’espèces surfaciques issues du CO et de H2. Bien que l’hydrogène puisse s’adsorber et réagir indifféremment sous forme moléculaire ou dissociée, la plupart des métaux de transitions (et le cobalt en particulier) induisent une adsorption dissociative. Sous les conditions de SFT, l’hydrogène s’adsorberait principalement selon un mécanisme dissociatif linéaire ou ponté nécessitant un ou deux sites métalliques respectivement [37]. 24 Il est également établi que l’hydrogène et le CO s’adsorbent compétitivement sur les mêmes sites, et si l’adsorption de CO est plus rapide que celle de H2, même aux faibles pressions partielles, il semble pourtant que ce soit le phénomène de chimisorption du sur les métaux de transition qui soit l’étape déterminante de la synthèse.
1.4.1.2. Adsorption de CO
Trois différents types d’adsorption de CO [37-39], dépendant principalement de la nature du métal, ont été observés, souvent simultanément (Figure 3.). Figure 3. : Modes d’adsorption de CO [39] a. position « basse » b. CO ponté c. chimisorption couchée
La première adsorption est dite en position « basse » ou selon le modèle de Blyholder. Ce type d’adsorption est observé sur platine et rhodium. Le second type de chimisorption est l’adsorption pontée, où plusieurs sites métalliques sont nécessaires. L’atome de carbone en position « basse » réalise un « pont » avec au moins deux atomes métalliques. Ce type d’adsorption, due à une plus faible interaction avec le métal, s’observe sur nickel et palladium. Une légère différence de charge en surface du métal est à l’origine du troisième mode d’adsorption. Le carbone se fixe sur une charge δalors que l’oxygène est incliné vers un site chargé δ+. Le CO est alors adsorbé de façon presque parallèle à la surface du métal. Le monoxyde de carbone peut ensuite être amené à se dissocier. Sa tendance à la dissociation est une propriété du métal et est fonction de la température (Tableau 1.). Les métaux de transition se situant à gauche du tableau de la classification périodique sont capables d’induire la dissociation à température ambiante, alors que ceux situés à droite deviennent plus efficaces à une température plus élevée. Dans les conditions de la synthèse de Fischer-Tropsch, les formes d’adsorptions dissociatives et associatives coexistent ; il est 25 cependant à noter que les sites de haute coordination tendent à favoriser une adsorption dissociative [40]. Le mécanisme alkyl est une adaptation du mécanisme carbure, premier mécanisme proposé par Fischer en 1926 [41] puis par Craxford et Rideal [42]. Il repose sur une chimisorption dissociative du CO sur le catalyseur. Le carbone de surface obtenu, espèce très réactive, serait géné pour former un monomère CHx (x variant de 1 à 3). Tableau 1. : Limite des modes d’adsorption en fonction du métal et de la température
[39] VIB VIIB VIII Cr Mn Fe Co Ni Cu Mo Tc Ru Rh Pd Ag W Re Os Ir Pt Au ← → mode dissociatif _ à 298K -- entre 473 et 573K 1.4.2. IB mode non dissociatif Mécanisme alkyl
L’initiateur de la croissance de chaîne serait un CH3 adsorbé (Figure 4.). La propagation de chaîne opèrerait ensuite par insertion de monomères supplémentaires CH2, alignés sur la surface ou possédant un certain degré de mobilité [43]. L’insertion d’un méthyle dans la chaîne ouvrirait le chemin à une possible ramification [44]. Enfin la terminaison de chaîne pourrait intervenir, soit sous la forme d’une désorption d’une chaîne aliphatique à l’aide d’une molécule de dihydrogène, soit par une β-élimination suivie de la désorption de l’oléfine produite. Une troisième terminaison menant à un n-alcool pourrait arriver par hydroxylation de l’hydrocarbure adsorbé [45]. Cependant aucun élément expérimental n’a permis d’étayer cette hypothèse. 26 Nombre de démonstrations expérimentales semblent témoigner en faveur de ce mécanisme réactionnel. Les études de dissociation du CO sur métaux montrent que dans la gamme de température concernée par la synthèse de Fischer-Tropsch (200 à 400°C), il y a disprotonation d’une partie des molécules par réaction de Boudouard et formation d’un carbone de surface [46]. Ce carbone de surface peut être présent en quantités variables selon les températures et la nature du métal considérées. Il peut réagir avec de l’hydrogène à basse température, alors que le CO chimisorbé de façon associative requiert une température supérieure pour être converti en méthane. Initiation CO CH C +2H +H CH2 +H H2O Monomère CH3 +2H Propagation R Initiateur R CH2 CH2 Terminaison/désorption CH2R -H CH2 +H + OH CH2=CHR α-oléfine CH3-CH2R n-paraffine CH2OH-CH2R n-alcool
Figure 4. : Mécanismes du carbure de surface
[36] La décomposition de diazométhane sur une large gamme de surfaces métalliques, expérimentée par Brady et Pettit [47-48], montre que : a. Sans ajout de gaz de synthèse, seul de l’éthylène est formé b. En présence d’hydrogène, une distribution d’hydrocarbures de C1 à C18 est obtenue 27 c. En présence de gaz de synthèse, le même type de produits est obtenu, mais présentant un décalage vers des produits plus lourds, en partie grâce à l’insertion d’un oligomère présentant plus de carbone. Ils montrent ainsi que l’espèce -CH2serait le monomère d’insertion de la SFT et que l’hydrogène a un rôle à jouer dans l’initiation de la polymérisation. Ce seul résultat n’est cependant pas pertinent dans la mesure où le carbène utilisé est introduit en tant que réactif et non synthétisé in situ. Cependant d’autres éléments expérimentaux semblent confirmer ce premier résultat. Sur catalyseurs au cobalt, Bell [49] met en évidence la présence des espèces carbèniques grâce à une technique de piégeage chimique. Au cours d’une oligomérisation de l’éthylène, du cyclohexène a été employé pour capturer les espèces -CH2formées. Seules des molécules de méthylcyclohexane et de norcarane ayant été obtenues, il en conclut que la surface du catalyseur était recouverte de
-CH2(Figure 5.). Figure 5. : Piégeage chimique des carbènes de surface par le cyclohexène [50] D’autres expériences avec de l’éthylène en présence d’hydrogène et de dérivés halogénés ajoutés au milieu montrent que sur catalyseur au cobalt [51]: • Le dichlorométhane forme en surface du catalyseur des espèces carbéniques • Il n’existe qu’un seul et même site pour l’adsorption et la polymérisation • CH2 est responsable de la croissance de chaîne, un ajout de CH3I induisant une surproduction de méthane. Enfin, le marquage isotopique représente une autre catégorie d’expériences possibles. Néan
moin
s
les difficultés inhérentes à
ces techniques
peuvent induire des résultats parfois contradictoires : alors que Kummer et al. [52] arrivent à une conclusion remettant en cause le mécanisme de carbure de surface, Biloen et al. [53-54] et Araki et Ponec [55] parmi d’autres mettent eux en évidence que ce serait -CHx,hypothèse compatible avec le mécanisme alkyl 28 pour x=2, qui serait responsable de la croissance de chaîne. Cette divergence de résultats n’est pas isolée et a pu mené à la proposition de mécanismes réactionnels différents du mécanisme alkyl. 1.4.3. Mécanisme vinylique Maitlis et al. [56-57], en utilisant des techniques de marquage avec de l’éthylène sur catalyseurs Ru et Rh, ont montré la possibilité d’une initiation de type vinylique ou « alkényl » (Figure 6.). Initiation CO CH C +2H +H CH2 +H H2O Monomère CH2 CH CH2 CH Initiateur Propagation CHR CH2R CH CH CHR CH CH2 HC H2C Terminaison/désorption CHR HC +H CH2=CHR α-oléfine
Figure 6. : Mécanisme du carbure de surface [36]
L’activation du CO et sa transformation en CHx suit le même schéma que pour le mécanisme alkyl. La formation de la première liaison carbone-carbone passerait par un couplage entre un méthylène et un méthylidyne de surface. Ceci constituerait un groupement vinylique de surface considéré comme l’initiateur de croissance de chaîne. La propagation de chaîne se ferait ensuite par insertion de méthylènes de surface sur ces groupements et isomérisation en alkényles. La désorption sous forme d’oléfine requiert la présence d’hydrogène. 29 Cependant ce mécanisme ne permet pas d’expliquer la production de n-paraffines sans considérer de réhydrogénations des 1-alcènes, seuls produits primaires de la réaction selon ce modèle.
1.4.4. Mécanisme énol
Dans ce mécanisme, proposé par Anderson et al. [17] et Köbel et al. [58], le monoxyde de carbone serait adsorbé de façon non dissociative puis directement hydrogéné sous la forme d’un hydroxycarbène -CH(OH)(Figure 7.), leur condensation en alkylhydroxycarbènes avec libération d’eau induirait la croissance de chaîne. Différents chemins possibles au cours de la terminaison de chaîne pourraient mener à des aldéhydes ou des oléfines qui, suite à une ré-hydrogénation, donneraient aux alcools et aux paraffines. Initiation O H H OH C OH CH C +2H +H Monomère & initiateur Monomère alternatif Propagation R
OH H C R OH OH C C R H2C C OH C H2O +2H R R OH H CH OH H2C C OH H OH
C C(CH3) +2H ou H2O Terminaison/désorption R CH2OH-CH2R H2C OH RCH2CHO C +2H acides et esters
RCH2CH2OH R H2C OH C H OH C + R=CH2 +2H RCH3
Figure 7. : Mécanisme de condensation des hydroxycarbènes [36, 63]
30
Si les expériences d’adsorption de n-propanol de Kummer et al. [59-60] et de coadsorption de CO et H2 de Balji Gupta et al. [61] semblent indiquer l’existence d’une espèce H2CO en surface, aucun élément spectroscopique n’a pour l’instant permis de conclure quant à leur existence sous des conditions proches de celles de la SFT [39,62]. 1.4.5.
Mécanisme
d’in
sertion
de CO Pichler et Schulz [64] ainsi que Henrici-Olivé et Olivé [65] ont exploité le mécanisme de condensation des hydroxycarbènes pour proposer une autre voie (Figure 8.). Dans celle-ci le CO non dissocié serait introduit dans une liaison de type métal-hydrogène (hydrure) ou métal-alkyl. Ayant lieu sur un seul centre métallique, ce mécanisme donnerait au cours de sa phase de terminaison des aldéhydes et des oléfines, réhydrogénés par la suite en alcools et alcanes.
Initiation OH CO CH3 CH2 +3H +2H H2 O Monomère Initiateur Propagation R R CO R O R OH CH C +2H CH2 +2H H2 O Terminaison/désorption CH2R -H CH2 +H R OH -H CH +H CH2=CHR α-oléfine CH3-CH2R n-paraffine RCHO aldéhyde RCH2OH n-alcool Figure
: Mécanisme d’insertion du monoxyde de carbone
[36] Bien qu’il existe de tels mécanismes en catalyse homogène sur complexes métalliques [66] un complexe multicarbonyle ne devrait pas être stable dans les conditions de la SFT [67]. 31
Ce serait alors l’insertion de groupements carbonyles provenant de sites métalliques voisins qui devrait plus vraisemblablement être considérée.
II. Catalyseurs
Les catalyseurs actifs en SFT appartiennent en général aux métaux du groupe VIII de la classification périodique. Ils peuvent être préparés de diverses façons et présenter une formulation incluant, en plus du métal actif, un support et/ou des dopants et promoteurs. Chaque métal de base induit des propriétés propres qui vont en partie définir ses conditions optimales d’utilisation ainsi que ses performances.
2.1. Types de catalyseurs [68]
Les principaux métaux utilisés sont le cobalt, le ruthénium ainsi que le fer, bien que le nickel, le rhodium et les platinoïdes puissent être également employés. Ces métaux peuvent être dispersés sous formes de particules sur des supports de type oxyde (TiO2, Al2O3, SiO2...) au cours de la préparation du catalyseur. La nature du support va avoir une certaine influence sur les performances du catalyseur. Un certain nombre d’additifs peuvent également venir compléter la formulation du catalyseur, comme par exemple des ajouts de métaux promoteurs ou d’oxydes supplémentaires. Leur action peut par exemple améliorer la dispersion de la phase métallique ou sa réductibilité.
2.1.1.
| 25,043
|